← Back to index

Onchain AI Garage

AI Saved a Dog's Life? Recreating the AI Cancer Vaccine Pipeline

2026-03-17 · 23m · 자막 —
▶ YouTube 원본
01한국어 번역 · Korean

AI가 개의 목숨을 살렸다고? — 반려견 맞춤 암 백신 파이프라인 직접 재현하기

원본: https://www.youtube.com/watch?v=ac9F_XDK-pA · 업로드: 2026-03-17 · 길이: 23m · 채널: Onchain AI Garage

주말에 본 놀라운 기사 — Rosie의 이야기

지난 주말에 아주 흥미로운 기사를 하나 봤습니다. 호주의 한 테크 창업자가 키우던 구조견(rescue dog) Rosie의 이야기입니다. 불행히도 Rosie에게 종양이 생겼고, 주인은 공인 의료인이 아님에도 AI 도구와 몇몇 연구소·기관의 도움을 빌려 Rosie 전용 맞춤형 암 백신(personalized cancer vaccine) 을 직접 만들었습니다. 감동적인 이야기였고, Rosie가 다행히 회복 중이라는 결말 덕분에 “AI가 의료 분야에서 어디까지 개인화될 수 있는가”를 아주 구체적으로 보여 준 사례였습니다.

오늘은 그 주인이 썼던 도구들을 하나씩 탐색하고, 가능한 선에서 같은 파이프라인을 저도 직접 따라해 보려 합니다. 영상 시작 전에 분명히 해 둘 것 — 저는 의료 전문가가 아닙니다. 의료 자문이 아니라 실험 기록입니다.

주인공 Paul Cunningham과 “지문을 찾아 면역계에 가르치는” 전략

  • : Rosie. 2024년에 비만세포종(mast cell cancer, 개에서 흔한 피부암) 진단. 남은 수명 1~6개월 선고. 항암·면역치료·수술을 다 돌렸지만 재발 반복.
  • 주인: Paul Cunningham. 호주의 AI 컨설턴트 겸 창업자. 의학 학위는 없는 순수 AI·소프트웨어 배경.
  • 결과: 맞춤 백신 첫 투여 1개월 뒤 종양 75% 축소. 개 대상 맞춤 암 백신으로는 공식 보고 첫 사례에 해당합니다. 다만 Rosie의 두 번째 종양은 반응하지 않았고, Paul은 현재 이유를 추적 중입니다. “만병통치”는 아닙니다.

그의 접근 원리는 단순합니다. 모든 암은 건강한 세포에는 없는 고유한 돌연변이(mutation)를 가진다. 이 돌연변이가 만들어 내는 고유 단백질을 네오항원(neoantigen)이라 부르며, 이것이 암의 “지문”이다. 지문을 찾아 면역계에 가르치면, 건강한 세포는 공격하지 않고 암만 공격한다. 파이프라인은 세 단계입니다.

  1. 건강 세포에는 없고 암 세포에만 있는 돌연변이 찾기
  2. 그 돌연변이 중 면역계가 공격 가능한 단백질을 만드는 것(네오항원)을 고르기
  3. 그 단백질을 인식하도록 면역계를 학습시키는 mRNA 백신 만들기

Paul이 쓴 AI 도구는 크게 셋. ChatGPT(연구 코파일럿 역할, 전 과정 동반), AlphaFold(단백질 3D 구조 예측, 면역계가 “볼 수 있는” 모양인지 판별), 그리고 직접 만든 신경망(네오항원 우선순위 랭킹). 최종 포뮬레이션에는 Grok도 일부 사용했습니다. 출력물은 “반 페이지짜리 mRNA 서열” — 백신 레시피.

이 레시피를 실제 주사제로 만드는 단계에서는 실험실 인프라가 필수였습니다. Paul은 시드니의 UNSW RNA Institute와 University of Queensland와 공동 작업해 실제 백신을 제조했습니다. “순수 AI만으로 되는 일”은 아니라는 점도 중요합니다.

놀라운 점은 이 파이프라인이 이미 임상 스케일로 존재한다는 것입니다. Moderna와 Merck가 흑색종(melanoma) 환자 대상 맞춤 네오항원 백신으로 임상 3상을 돌리고 있고, 원리 자체는 동일합니다. AI가 한 일은 백신 설계 시간을 수개월에서 약 6주 수준으로 단축한 것입니다.

직접 재현해 보기 — 퍼블릭 데이터 + 오픈소스 도구만으로

“데이터만 있으면 나머지는 누구나 할 수 있다”는 Paul의 말을 검증하고 싶었습니다. 암은 흑색종으로 선택. Rosie와 같은 암종이기도 하고, 제 가족력에도 있기 때문입니다. 전부 무료/오픈소스 도구를 사용했습니다.

Step 1 — 종양/건강 조직 DNA 시퀀싱 (건너뜀)

원칙적으로는 종양과 건강 조직의 DNA를 동일 환자에서 시퀀싱해서 비교해야 합니다. 미국 국립암연구소의 Cancer Genome Atlas(TCGA) 공공 데이터에서 이미 시퀀싱·비교가 끝난 MAF 파일(Mutation Annotation Format) 을 내려받는 걸로 이 단계를 건너뛰었습니다. 처음부터 직접 한다면 GATK Mutect2라는 오픈소스 툴로 돌리는데, 소비자용 GPU에서 4~8시간 걸립니다. 출력은 VCF(Variant Call Format) 파일. 제 GPU를 아꼈습니다.

NCI 포털에서 TCGA-SKCM (피부암/흑색종), primary tumor 조건으로 MAF 파일을 내려받습니다. 크기는 수백 MB 수준이라 시퀀싱 원본(수 GB)보다 훨씬 가볍습니다.

Step 2 — 네오항원 예측: 이 실험의 핵심 머신러닝 단계

모든 돌연변이가 면역계가 공격 가능한 단백질을 만드는 것은 아닙니다. 인체는 HLA 시스템을 통해 세포 표면의 “진열장(display case)“에 단백질 조각을 올려 두고, T세포가 이 진열장을 검사합니다. T세포가 외래성을 감지하면 그 세포를 파괴합니다. 그러니 “HLA 진열장에 실제로 얹히고, 면역계가 실제로 볼 수 있는” 돌연변이 단백질만이 백신 타깃이 됩니다.

이 판별에 쓰는 도구:

  • pVACtools — MAF/VCF → 네오항원 후보 랭킹 파이프라인
  • NetMHCpan — 골드 스탠다드 예측 모델이지만 학술 이메일이 필요해 제외 (학교 떠난 지 오래)
  • MHCflurry — 완전 오픈소스 대체재. NetMHCpan보다 정확도는 약간 낮지만 재현 가능한 결과를 줌

Windows 환경에서는 WSL로 Linux 레이어를 띄우고, Miniconda를 깔아 환경을 격리합니다:

conda create -n pvactools python=3.8 -y
conda activate pvactools
pip install pvactools

pip install mhcflurry
mhcflurry-downloads fetch

Step 2-보조 — MAF → VCF 변환이 뜻밖에 고통스럽다

pVACtools는 MAF를 직접 받지 않아서 VCF로 변환해야 하는데, 공개 MAF만 내려받을 수 있고 공개 VCF는 접근이 제한돼 있어 직접 변환이 필요합니다. 제 OpenClaw 에이전트(Claude Sonnet)가 처음에 틀린 루트를 제안해서 시행착오를 많이 했습니다. 결국 필요한 것은: MAF 파일 + 인간 참조 유전체(reference genome) + 변환 툴킷. Paul이 ChatGPT를 왜 코파일럿으로 썼는지 이 시점에서 아주 잘 이해됩니다.

변환된 VCF는 VEP(Variant Effect Predictor) 로 주석을 달아야 pVACtools가 의미 있게 읽을 수 있습니다. VEP 캐시는 로컬 파일이고(수십 GB), 모든 인간 유전자 전사체 주석을 담아서 온라인 쿼리 없이 로컬 조회가 가능합니다. 이 캐시를 내려받고 압축 해제하는 데 꽤 시간이 걸렸습니다. 주석 완료 후 VCF 파일 크기는 약 55MB.

Step 2-본 — pVACtools + MHCflurry 실행

conda activate pvactools
pvacseq run <annotated.vcf> ... --iedb-install-directory ... <HLA_types> \
  MHCflurry ...

HLA 타입은 환자별로 따로 알아내야 하지만, 제 데이터셋에는 포함돼 있지 않아서 시연용으로 일반적인 HLA를 사용했습니다. MHCflurry는 수십만 건의 실험적 peptide-HLA 결합 데이터로 학습된 신경망이라, 각 돌연변이 단백질 조각의 결합 강도(affinity)를 예측합니다. 실제 Moderna·Merck 파이프라인의 바로 이 지점에 대응합니다.

Paul이 Rosie를 위해 한 “독자적 기여”도 여기에 있습니다. MHCflurry류 도구들이 대부분 인간 HLA 데이터로 학습됐기 때문에 개(dog) MHC 예측에는 바로 쓸 수 없어서, Paul은 존재하던 개 MHC 결합 데이터를 긁어모아 개 전용 모델을 직접 학습시켰습니다. AI/ML 배경이 결정적으로 작용한 부분입니다. 저는 인간 샘플을 썼기 때문에 그대로 모델을 돌렸고, 필터 후보 중 상위 후보가 결합 점수 < 50(강한 결합 신호)에 해당하는 후보로 나왔습니다. 실제 백신은 여러 네오항원을 섞지만, 데모 목적으로 1위 후보만 이어서 진행.

Step 3 — AlphaFold로 3D 구조 시각화

Google DeepMind의 AlphaFold Server에 펩타이드 서열을 입력하면 수분~수십 분 내에 3D 접힘 구조가 나옵니다. 9-아미노산 펩타이드는 짧은 구조라 간단하게 렌더링됩니다. 이 구조가 HLA 진열장 모양과 실제로 맞물리는지가 백신 성공의 열쇠입니다.

Step 4 — mRNA 서열 설계

마지막 단계는 페니티드(peptide)를 DNA/RNA 염기 서열로 역번역(back-translate) 하고, Moderna/BioNTech 발표 논문에서 통용되는 표준 래퍼 요소(wrapper elements) — 5’ UTR, Kozak sequence, signal peptide, 3’ UTR, poly-A tail — 를 앞뒤로 붙이는 작업입니다. 네오항원 부분만이 “맞춤” 영역이고 나머지는 사실상 표준 템플릿입니다. 이 작업은 제 OpenClaw 에이전트(Opus 4.6)가 대부분 처리했고, 분해 설명 요청에도 응했습니다. 이 최종 mRNA 서열이 곧 합성 실험실에 넘기는 “레시피”입니다. Paul도 동일한 형태의 결과를 UNSW에 넘겼습니다.

마무리 — 랩톱 위에서 가능해진 일

이 시연의 결론은 단순합니다. 데이터만 있으면 머신러닝·AI 단계는 랩톱에서 돌아갑니다. 시간이 좀 걸리지만 누구나 할 수 있습니다. 물론 실제 인간용 혹은 다른 개별 환자용 백신에는 규제, 윤리, 임상 검증, 생산 인프라 같은 훨씬 큰 숙제들이 남아 있습니다. 그래도 Moderna가 임상 3상을 돌리는 파이프라인을 오픈 툴과 공공 데이터로 재현할 수 있다는 사실은, AI가 특정 전문 분야에 들어가는 속도에 대한 아주 구체적인 이미지입니다.

Rosie의 두 번째 종양이 왜 반응하지 않았는지, HLA 예측에서 놓친 지점이 어디였는지 — 이런 후속 질문이야말로 다음 단계입니다. 시청해 주셔서 감사하고, 질문이나 의견 있으면 댓글 부탁드립니다.

02리서치 문서 · Document

랩톱 위에서 열린 “개인 의료” 시대: Rosie의 맞춤 암 백신과 오픈소스 파이프라인

원본 영상: YouTube · 업로드: 2026-03-17 · 채널: Onchain AI Garage (@OnchainAIGarage)

서론 — 2024년 호주, 종양선고를 받은 구조견 한 마리에서 시작된 이야기

2024년 호주. 데이터 엔지니어 Paul Conyngham의 구조견 Rosie가 비만세포종(mast cell cancer) 을 진단받았다. 항암·면역치료·수술을 모두 거쳤지만 재발이 반복됐고, 예상 여명은 1~6개월이었다. 의학 학위는 없지만 17년의 머신러닝 경력이 있었던 Conyngham은 ChatGPT를 열고, 개 한 마리를 위한 맞춤형 mRNA 암 백신 파이프라인을 직접 설계하기 시작했다(The Conversation, IBTimes UK).

2025년 12월 시드니 UNSW RNA Institute(Prof. Thordarson 팀)에서 mRNA 서열이 실제 백신으로 합성됐고, Queensland 대학(Prof. Rachel Allavena)에서 기존 실험동물 치료 윤리 승인 아래 투여가 이루어졌다. 1차 주사 후 1개월 만에 다리의 종양이 75% 축소. 개 대상 맞춤 암 백신으로 보고된 첫 사례로 알려졌다(Reason, Yahoo Finance). Onchain AI Garage의 이 영상은 Conyngham이 쓴 오픈·무료 도구들만 골라 같은 파이프라인을 흑색종(melanoma) 공공 데이터로 재현해 본 실전 기록이다. Rosie의 이야기가 감동적인 만큼, 그 안에 들어 있는 엔지니어링을 한 겹 한 겹 벗겨 보는 작업 자체가 의미가 있다.

본론 1 — “지문을 찾아 면역계에 가르친다”는 아이디어

모든 암은 건강한 세포에는 없는 체세포 돌연변이(somatic mutation) 를 축적한다. 이 돌연변이가 만들어 내는 단백질을 네오항원(neoantigen) 이라 부른다. 건강 세포에는 존재하지 않기 때문에, 면역계가 네오항원만을 표적으로 공격하도록 학습시키면 이론적으로 “자가면역 반응 없이 암만 파괴하는 백신”이 된다. 이 개념은 Moderna와 Merck의 V940 / mRNA-4157 파이프라인에서 이미 대규모로 검증 중이다. 2024년 Phase 2b KEYNOTE-942 시험에서 pembrolizumab 단독 대비 재발·사망 위험 49% 감소라는 결과를 발표했고, 현재는 고위험 흑색종 환자 1,089명을 대상으로 한 Phase 3 V940-001 이 진행 중이다(Merck, 2024, Merck 5-year update, 2026).

Conyngham은 이 임상 파이프라인의 축소 버전을 혼자서, 개 한 마리를 위해 짜 맞췄다는 것이다. 이것이 왜 이 시기에 가능해졌는가가 핵심 질문이다. 답은 세 가지 추세의 합류다. (1) TCGA 같은 공공 종양 유전체 데이터, (2) AlphaFold 같은 무료 구조 예측 모델, (3) MHCflurry 같은 오픈소스 네오항원 예측 도구. 아래에서 하나씩 본다.

본론 2 — 파이프라인 해부: 4단계와 그에 대응하는 AI 도구

Step 1: 돌연변이 식별. 종양/건강 조직의 DNA를 나란히 시퀀싱해 비교한다. GATK Mutect2 같은 오픈 툴이 돌연변이를 뽑아 내 VCF(Variant Call Format) 파일을 만들고, 주석이 붙으면 MAF(Mutation Annotation Format)가 된다. 이 단계는 시퀀싱 비용과 시간이 크지만, 흑색종은 NCI의 TCGA-SKCM 데이터셋이 이미 공공 MAF로 제공돼 있어 재현 목적에서는 건너뛸 수 있다.

Step 2: 네오항원 예측. 모든 돌연변이가 백신 타깃이 되는 건 아니다. 인체는 HLA(Human Leukocyte Antigen) 시스템으로 세포 표면에 단백질 조각을 “진열”하고, T세포가 이를 검사해 외래성을 판정한다. 따라서 “HLA에 강하게 결합하고, 표면에 실제로 제시되는” 조각만이 유효한 후보다. 이 결합 친화도(binding affinity)는 pan-allele 예측 모델로 계산한다. 업계 골드 스탠다드는 NetMHCpan이지만 학술 이메일이 필요하다. 대안은 OpenVax의 오픈소스 모델 MHCflurry 2.0이다. MHCflurry는 mass spectrometry 기반 held-out 실험에서 NetMHCpan 4.0과 MixMHCpred 2.0.2를 능가하는 성능을 보였고, 속도는 초당 7,000건의 예측 — NetMHCpan 대비 396배 빠르다. 이 성능과 오픈소스 라이선스의 조합이 “개인이 랩톱에서 백신 후보를 탐색”하는 일을 가능케 한다.

Step 3: 3D 구조 검증. DeepMind의 AlphaFold Server로 펩타이드의 3차 구조를 예측해, HLA 진열장 모양과 실제로 맞물리는지 시각적으로 확인한다. 9-아미노산 펩타이드는 수분 안에 렌더링된다.

Step 4: mRNA 서열 조립. 후보 펩타이드를 역번역(back-translation)해 코돈 서열로 바꾸고, Moderna·BioNTech 논문에서 표준으로 쓰이는 5’ UTR → Kozak → signal peptide → 페이로드 → 3’ UTR → poly-A 래퍼를 덧붙인다. 네오항원 부분만이 “맞춤” 영역이고 래퍼는 사실상 템플릿이다. 이 파일이 합성 실험실에 넘기는 최종 레시피가 된다.

본론 3 — Conyngham의 독자적 기여: “개 전용” 모델 학습

이 파이프라인에서 사람들은 종종 “ChatGPT가 백신을 만들었다”는 서사에 집중하지만, 오해를 부른다. MHCflurry와 NetMHCpan은 절대 다수가 인간 HLA 데이터로 학습돼 있다. 개의 MHC(개에서는 DLA로 불림) 구조와 결합 모티프가 다르기 때문에 인간용 예측기를 개에 그대로 쓰면 결과가 의심스러워진다. Conyngham은 흩어져 있던 공개 개 MHC 결합 데이터를 긁어모아 개 전용 예측 모델을 직접 학습했고, Rosie의 HLA 타입에 맞춰 네오항원 후보를 랭킹했다(Awesome Agents 요약, Elephas Resources). “17년 ML 경력”의 실질적 가치가 여기에 있다. ChatGPT는 코파일럿이었고, AlphaFold는 검증 도구였지만, 핵심 모델은 직접 만들어야 했다.

또한 Rosie의 두 번째 종양은 이 백신에 반응하지 않았다. Conyngham 본인도 “이건 치유가 아니라, Rosie에게 의미 있는 시간과 삶의 질을 더 주는 치료”라 선을 긋는다. 종양학자들은 이 사례가 “통제 시험 없는 N=1”임을 지적하며 신중한 해석을 당부한다(The Conversation). 이 맥락을 지우고 “AI가 암을 정복했다”로 요약하는 헤드라인이 위험한 이유다.

본론 4 — 재현 시연이 드러낸 진짜 병목

영상의 제작자는 Conyngham의 파이프라인을 공공 TCGA-SKCM 데이터로 재현하면서 몇 가지 실전 학습을 남긴다.

  • 데이터 접근성의 비대칭. 공개 MAF는 쉽게 받지만, 대응하는 VCF/인간 참조 유전체는 접근 제약이 있어 직접 변환해야 한다. 파이프라인의 앞 단계가 가장 귀찮다.
  • VEP 캐시·WSL·Miniconda 같은 인프라 설치의 번거로움이 실제 장벽. AI 모델 자체가 아니라 환경 구축이 체감 시간의 대부분이다.
  • OpenClaw 에이전트(Claude Sonnet)가 코파일럿으로서 결정적이지만 완벽하지 않다. 중간에 잘못된 변환 경로를 제안해 재작업이 필요했다. Paul이 왜 ChatGPT를 “전 과정 코파일럿”으로 둬야 했는지 체감할 수 있는 장면.
  • HLA 타입 자체도 별도 데이터가 필요하다. 시연에서는 일반 HLA로 대체했지만, 실제로는 환자별 HLA 타이핑이 선행되어야 하며, 이 역시 파이프라인에 포함되어야 한다.

결국 이 시연의 결론은 단순하다. 도구는 공개됐고, 데이터는 상당 부분 공공이며, 임상 스케일 파이프라인의 축소판이 실제로 랩톱에서 돈다. 남는 것은 규제, 윤리, 실험실 인프라, 그리고 종양생물학 해석의 몫이다.

핵심 인사이트

  • AI가 한 일은 “설계 시간 단축”이지, 백신 합성이 아니다. Conyngham에게도 UNSW RNA Institute와 Queensland 대학의 실험실이 필수였다. AI는 수개월짜리 탐색을 수주로 압축했다.
  • 오픈소스 예측기의 성숙이 전환점. MHCflurry 2.0은 속도 면에서 NetMHCpan의 약 400배, 성능은 대등 이상이다. 이 조합이 “소수 전문가 → 넓은 데이터 엔지니어” 영역으로 파이프라인을 개방했다.
  • 종 간 전이의 병목은 여전히 ML 문제. Paul이 개 MHC 모델을 직접 학습해야 했다는 사실이, 이 시점 AI의 영역이 “모델 실행”이 아니라 “도메인 데이터로 모델을 만들기”에 가깝다는 걸 보여 준다.
  • N=1 사례를 정책 근거로 과대 해석 금지. 종양학자들의 주의는 타당하다. 2분기·3상 통계가 존재하는 Moderna V940이 있는 영역에서는 더더욱 그렇다.
  • 재현 가능성이 증명하는 것. 이 영상이 “랩톱 + 공공 데이터 + 오픈툴”로 파이프라인을 돌려 낸 자체가, Conyngham 사례가 마법이 아니라 재현 가능한 공학임을 보여 준다. 이것이 개인화 의료(personalized medicine)의 진짜 이정표다.

더 알아보기

03찬반 토론 · Debate

토론: “자격 없는 개인이 AI로 맞춤 의료를 설계해도 되는가”

논제: Paul Conyngham이 AI 도구로 반려견 Rosie의 맞춤 암 백신을 설계한 사례는, 비전문가가 사랑하는 대상을 위해 AI로 의료 개입을 시도하는 행위가 “장려할 만한 모델”임을 보여 준다.

Round 1

🟢 Pro — “의료 R&D의 민주화는 이미 시작됐고, Rosie는 그 정당성을 증명한다”

Conyngham의 사례는 단순한 감동 기사가 아니다. 세 가지 구조적 변화가 수렴한 증거다. 첫째, 공공 종양 유전체 데이터(TCGA-SKCM 같은)가 누구나 내려받을 수 있게 공개됐다. 둘째, AlphaFold Server가 단백질 3D 구조 예측을 무료로 제공한다. 셋째, MHCflurry 2.0 같은 오픈소스 네오항원 예측기가 NetMHCpan의 수백 배 속도로 랩톱에서 돌아간다. 이 세 축이 동시에 성숙한 2025~2026년이 되어서야 Conyngham의 시도가 실험실 한 곳과의 협업만으로 완결될 수 있었다.

결과도 허술하지 않다. Rosie 다리 종양은 첫 주사 후 약 한 달 만에 75% 축소됐고(IBTimes UK, Reason, 2026), 이는 Moderna·Merck의 임상 3상 파이프라인인 V940/mRNA-4157이 Phase 2b KEYNOTE-942에서 보인 재발·사망 위험 49% 감소(Merck, 2024)와 동일한 신항원-mRNA 원리를 따른다. 즉, 방법론 자체가 공인된 임상 프레임을 복제한 것이지, 돌출적 아마추어리즘이 아니다.

무엇보다 대안을 보라. Rosie는 정통 치료를 모두 거친 뒤 “1~6개월 여명”을 선고받은 상태였다. 보수적 관망은 “확실한 사망”이었다. 이 조건에서 17년의 ML 경력을 보유한 엔지니어가 실험실 동물 윤리 승인을 이미 갖춘 연구실과 협업해 시도한 중재를, “자격 없는 개인의 무모한 개입”으로 분류하는 것은 부당하다. 오히려 이것은 고위험·고필요 상황에서 개인이 능동적으로 정보 비대칭을 줄이는 성숙한 행위의 전형이다.

🔴 Con — “감동 서사가 정책과 공중 보건을 오염시키고 있다”

Pro의 요약은 편의적이다. 이 사례는 N=1, 통제군 없음, 장기 추적 없음, 그리고 중요한 사실 하나 — 두 번째 종양은 반응하지 않았다. Conyngham 본인도 “이것은 치유가 아니다”라고 선을 그었다(Yahoo Finance). 종양학자들이 공개적으로 신중함을 요청한 이유는(The Conversation) 한 번의 극적 축소가 자연 변동, 위약 효과(동물에서도 관찰), 보조 치료와의 상호작용 등 수많은 대안 설명을 배제하지 못하기 때문이다.

더 심각한 문제는 서사의 왜곡 효과다. 대중 헤드라인은 “ChatGPT가 암을 고쳤다”로 압축된다. 이 압축은 세 가지 핵심 사실을 지운다. (1) UNSW RNA Institute와 Queensland 대학의 실험실 인프라, (2) 17년 ML 경력으로 직접 학습시킨 개 MHC 예측 모델, (3) 기존 실험 동물 치료 윤리 승인 프레임 안에서의 투여. 이 셋 중 하나라도 없었다면 Rosie 사례는 존재하지 않았다. 그런데 Pro와 대중 서사는 이 셋을 “개인이 AI로 해냈다”에 숨기고, 따라 하려는 사람에게 실재하지 않는 자격의 환상을 심는다.

그 환상의 대가는 크다. 2026년 현재 온라인에는 “ChatGPT로 자기 질병을 관리한다”는 시도가 급증 중이고, 그중 상당수는 증거 기반 의학 표준을 우회한다. Rosie 서사는 이 흐름의 윤리적 방파제를 오히려 낮추는 역할을 한다. 특히 인간 대상 자기 실험으로 번질 때의 위험은 개 한 마리와는 비교할 수 없다. Pro는 이 2차 효과를 전혀 계산에 넣지 않는다.

Round 2

🟢 Pro (재반론) — Con 세 반박을 이름으로 지목해 깬다

Con의 첫째 반박(N=1, 대안 설명 배제 불가) 은 원칙적으로 옳지만 Conyngham 사례에만 특별히 적용되는 비판은 아니다. 모든 first-in-kind 연구는 N=1에서 출발한다. 실험 의학의 역사는 “통제되지 않은 첫 관찰”에서 시작해 임상 프로토콜로 옮겨 가는 연속이다. 문제는 이 관찰을 어떻게 보고·검증할 것인가이지, 관찰 자체를 금기시하는 것은 아니다. 실제로 Rosie 사례 이후 학계와 산업은 “개 DLA 예측 모델의 오픈 벤치마크화”라는 구체적 후속 과제를 거론하기 시작했다. 이것이 정상적 과학 발전 경로다.

Con의 둘째 반박(서사가 세 축을 지운다) 은 정확히 Onchain AI Garage의 이 영상이 수행하는 역할과 반대 방향이다. 이 영상은 MHCflurry, AlphaFold, VEP, pVACtools의 역할을 한 단계씩 설명하고, 대학 실험실의 필수성을 여러 차례 명시한다. 즉 헤드라인이 지운 구조를 복원하는 재현 저널리즘에 가깝다. Con이 비판해야 할 대상은 이 시연이 아니라 “ChatGPT가 암을 고쳤다”는 클릭베이트 헤드라인이다. 시연과 서사를 한 덩어리로 비난하는 것은 진단의 층위를 혼동한 결과다.

Con의 셋째 반박(인간 자기실험으로 번질 위험) 은 타당한 우려지만, 해결책이 “시도 금지”가 아니다. 이 위험의 실제 완화책은 공개된 파이프라인 문서화 + 규제 경로 연결이다. 이미 V940/mRNA-4157의 FDA/EMA Breakthrough Therapy Designation(Merck)이 존재하는 상황에서, 개인 환자가 “법적·윤리적으로 올바른 경로로 임상 시험에 참여하는 방법”을 알려 주는 교육 콘텐츠가 답이다. Rosie 사례는 그 교육의 출발점으로 매우 유용한 구체적 실례다.

🔴 Con (재반박) — Pro Round 2의 재반박들을 이름으로 지목해 깬다

Pro의 첫째 재반박(모든 first-in-kind는 N=1이다) 은 형식적으로는 맞지만 문맥이 결정적이다. 정통 first-in-kind 연구는 IRB·IACUC 승인, 사전 등록(pre-registration), 독립 데이터 검토 같은 절차적 장치 안에서 진행된다. Rosie 사례에는 그중 일부(실험 동물 윤리)가 있지만 사전 등록·독립 통계 검토·동료 심사 논문이 아직 없다. 이 간극이 “정상적 과학”과 “사후 포장된 홍보”를 가른다. Pro는 이 간극을 단순한 “시간 문제”로 치환하지만, 시간이 흘러도 사전 등록이 없다는 사실은 바뀌지 않는다.

Pro의 둘째 재반박(이 영상은 복원 저널리즘이다) 는 개별 영상의 수준으로 평가하면 정당하다. 그러나 콘텐츠 생태계 단위에서는 틀리다. 잘 만든 재현 설명 한 편은 “AI로 암을 고쳤다”는 수천 개 짧은 동영상·트윗·기사 속에서 신호 대 잡음비를 0에 가깝게 만든다. 공중 보건 서사의 실제 작용은 평균값이 아니라 가장 시끄러운 메시지가 결정한다. Pro의 논리는 “좋은 기사가 나쁜 헤드라인을 상쇄한다”는 이상론이며, 2020년대 이후 팬데믹과 백신 관련 misinformation 연구가 거듭 부정해 온 가정이다.

Pro의 셋째 재반박(해결책은 공개 파이프라인 + 규제 경로) 은 정책 목표로서 옳지만, 현 시점의 현실과 맞지 않는다. V940-001 Phase 3 임상의 1차 평가 종료는 2029년이다. 그때까지 개별 환자는 대부분 임상 참여 자격 요건을 충족하지 못한다. “올바른 규제 경로”가 실질적으로 존재하지 않는 창에서, Rosie 서사는 “직접 해도 된다”는 신호로 읽히기 쉽다. Pro의 답은 2029년 이후에야 완성되는 미래 시제이고, 그 사이의 공백이 가장 위험한 구간이다.

Round 3

🟢 Pro — Con Round 2의 지적을 거두어 올린다

Con의 첫째 재반박(사전 등록·동료 심사 부재) 은 중요하지만 이 사례에서 해결 가능한 문제다. 실제로 UNSW RNA Institute와 Queensland 대학은 해당 투여 이력을 논문화할 유인을 이미 갖고 있고, 학술 커뮤니티가 사후 등록(post-hoc registration) 프레임을 정교화하는 흐름이 있다. 구조적 해결이 진행 중인 문제를 들어 사례 전체의 정당성을 무너뜨리는 것은 과잉이다. 오히려 Rosie 사례가 “비임상 동물 대상 개인 주도 연구에 대한 공식 등록 프레임이 필요하다”는 제도적 논의를 앞당기는 촉매로 기능할 수 있다.

Con의 둘째 재반박(콘텐츠 생태계 단위의 misinformation) 은 경험적으로 강력한 반박이지만, 해법의 방향이 반대로 잡혀 있다. misinformation에 대한 2020년대 연구가 공통적으로 도달한 결론은 “검열보다 양질의 콘텐츠 양산이 더 효과적” 이라는 점이다. Onchain AI Garage 같은 중간 기술 이해도를 가진 해설 채널이 늘어나는 것이 실제 방파제다. “시끄러운 잘못된 메시지”를 이유로 “정확한 재현 시연”까지 의심하는 것은, 결과적으로 misinformation 진영에 공간을 내주는 셈이다.

Con의 셋째 재반박(2029년까지 공백이 위험하다) 에는 Pro도 동의한다. 그러나 공백을 채우는 현실적 방법은 “사례 금기화”가 아니라 확장 액세스(expanded access)와 compassionate use 경로의 정비다. FDA의 Breakthrough Therapy Designation이 이미 V940에 부여돼 있다는 사실이, 개별 환자 접근 경로를 법적으로 넓힐 근거가 된다. Rosie 사례는 그 개정을 가속할 사회적 에너지를 공급한다.

🔴 Con — Pro Round 2의 낙관을 마지막으로 반박한다

Pro의 첫째 주장(사후 등록 프레임이 해결한다) 은 제도 디자인의 어려움을 과소평가한다. 사후 등록은 이론적으로 가능하지만, 선택적 보고(selective reporting)출판 편향(publication bias) 을 통제하지 못한다. Rosie처럼 성공한 사례만 대중에게 도달하고, 실패·사망한 동물 사례는 보도되지 않는 비대칭은 이미 존재한다. 이 비대칭이 바로잡히기 전에 개인 주도 연구를 장려하는 것은, 공개된 성공률을 실제보다 훨씬 높게 보이게 만든다.

Pro의 둘째 주장(양질 콘텐츠 양산이 답) 은 옳지만 충분조건이 아니다. misinformation 연구 2022~2025년의 합의는 “양질 콘텐츠 + 플랫폼 차원의 레이턴시 통제 + 취약 집단 교육”의 조합이 필요하다는 것이다. Onchain AI Garage 한 채널이 양질을 생산해도, 알고리즘 피드가 더 자극적인 단순 버전을 우선 노출하면 효과가 상쇄된다. 영상 한 편의 미덕을 인정하면서도, 생태계 단위의 구조적 문제는 별도로 해결돼야 한다.

Pro의 셋째 주장(확장 액세스가 공백을 메운다) 은 현실적 방향이지만 속도가 문제다. FDA의 compassionate use 프레임은 인간 환자용이고, 반려동물에는 적용되지 않는다. Rosie 사례가 “개인 주도 반려동물 실험”을 직접 정당화하고 있지만, 이 영역에서는 오히려 규제 프레임이 더 취약하다. Pro는 인간 임상 규제의 정비를 반려동물 실험의 정당성으로 확장하지만, 두 영역의 윤리·규제 구조는 다르다.

🧭 종합

합의 지점

양측은 (1) Rosie의 축소 결과가 실제로 관찰됐고 이는 의미 있는 사건이라는 점, (2) AI 도구의 민주화 자체는 되돌릴 수 없는 흐름이라는 점, (3) 대중 헤드라인의 단순화가 실질적 위험을 만든다는 점에 동의한다. 쟁점은 “개인의 주도적 시도”를 장려할 것인가 신중화할 것인가의 톤 조절이며, 양측 모두 “시도 자체 금지”와 “무분별한 확산” 둘 다 원하지 않는다.

열린 질문

  • 반려동물 대상 개인 주도 실험의 등록 프레임이 인간 임상과 별도로 필요한가? 있다면 누가 운영하는가?
  • 사후 등록(post-hoc registration) 이 선택적 보고 편향을 실제로 통제할 수 있는가? 기존 대안(Registered Reports 모델)을 반려동물 실험에 이식 가능한가?
  • Rosie의 두 번째 종양이 반응하지 않은 이유는 기술적 한계인가, HLA 예측의 편향인가, 아니면 해당 종양의 생물학적 특성인가? 후속 검체 분석이 필요하다.
  • AI 도구가 개인용 의료 가설 생성에 쓰일 때, 코파일럿의 환각(hallucination) 을 어떤 안전망이 걸러야 하는가?

더 나아간 관점

이 논쟁은 “Rosie 사례가 좋은가 나쁜가”로 환원되지 않는다. 핵심은 AI가 전문가와 비전문가의 경계를 녹이는 속도보다, 제도가 그 경계에서의 책임 분배를 정의하는 속도가 훨씬 느리다는 사실이다. Pro의 낙관과 Con의 경계심은 같은 관찰의 두 측면 — 기술적 가능성의 폭발과 제도적 공백 — 에 대한 다른 반응일 뿐이다. 공통의 실천 방향이 있다면 이렇다. 개인 주도 AI 의료 연구에 대한 경량 등록 프레임을 2029년 이전에 마련하고, 양질의 재현 저널리즘을 플랫폼 수준에서 가시성 가중한다. Rosie의 다리 종양 사진 한 장이 던진 질문은, 사실 사람의 책임 분배에 대한 질문이다.

04영문 원본 · Transcript
So I saw this article over the weekend, and it was pretty interesting.
It was about this Australian tech entrepreneur who had this rescue dog named Rosie.
And unfortunately, Rosie was getting tumors.
So what he did is he developed a personalized custom cancer vaccine for his dog,
mainly using AI tools and also the help of certain labs and institutions.
But pretty interesting article and shows how AI can be used in the medical field on a very personal level.
So it was a pretty heartwarming story now that Rosie is recovering, thankfully.
So in today's episode, I wanted to try to explore some of the tools he used
and see just what he did in order to create this custom cancer vaccine.
So first, I'm going to explain a little bit of what he did based on the article.
And his own accounts.
So this is how a man used AI to build a cancer vaccine for his dog
and how we're going to recreate the same pipeline ourselves using this exact same pre-tools.
So I said the dog's name was Rosie, diagnosed in 2024, given one to six months to live.
However, after the first injection of this personalized cancer vaccine,
she had a 75% tumor shrinkage.
Really incredible.
And this is the first time recorded.
This is a personalized cancer vaccine designed for a dog.
So Rosie was the dog.
She had a mast cell cancer, which is a common skin cancer in dogs.
It's normally incurable, though, through conventional treatment.
And they went through the normal treatments, chemo, immunotherapy, surgeries,
and it just kept coming back.
So the owner is Paul Cunningham.
He's an Australian AI consultant and entrepreneur.
So he did have a background in AI and machine learning,
which certainly helped him know how to use these tools.
But he has no biomedical degree, no biology training.
He is a software and AI person, not a doctor and not a scientist.
And he was able to use that AI and data science background
to help create this cancer vaccine.
So his plan was to find the cancer's fingerprint,
then teach the immune system to destroy it.
So every cancer,
every cancer has unique mutations that healthy cells don't.
So those mutations produce unique proteins called neoantigens.
And they're the cancer's fingerprint.
And those are different from healthy cells.
If you can identify those neoantigens and create a vaccine from them,
the immune system learns to recognize it and attack the cancer directly.
So that's the one thing that is very important.
You don't want the immune system to be attacking healthy cells.
So that's why it's key to find them.
These unique proteins and train the immune system to attack those only.
So the process very quickly is find mutations that exist in cancer cells,
but not in healthy cells.
Step two, identify which mutations produce proteins.
The immune system can attack the neoantigens.
Step three, build a mRNA vaccine that teaches the immune system to recognize those proteins.
So he used three AI tools.
And part of one,
he used a pipeline.
He used ChatGBD as a research co-pilot.
Throughout the entire process,
he would ask ChatGBD about what he needed to do.
And that was kind of his research assistant throughout the entire process.
Then AlphaFold, which is a protein shape prediction.
Google's DeepMind is a free tool.
Once Paul had identified the cancer mutations,
he used AlphaFold to predict the 3D shape of the proteins,
of the proteins those mutations produce.
The shape matters,
because it determines,
whether the immune system can see and target the protein.
So, not all of these kinds of proteins the immune system can see.
So that's why he needed to use AlphaFold to predict the protein shapes.
And since he had a machine learning background,
he used a custom machine learning for the neoantigen selection.
So he created his own machine learning algorithms to rank which mutated proteins
would most likely trigger a strong immune response.
And the output was a half-page mRNA sequence,
the recipe for the vaccine.
And he also later on mentioned that he used Grok
in the final formulation of the vaccine formula.
So then once he had that sequence,
he was able to turn it into an actual injectable vaccine
that required a real lab infrastructure.
So he got collaboration with UNSW RNA Institute in Sydney
and the University of Queensland.
And they were pretty good at that.
They were critical in actually bringing the data he had found to life
and actually creating it into a vaccine.
And it worked, thankfully.
75% tumor shrinkage within the first month of injection.
And it was very surprising.
In just a month's time, Rosie was jumping over fences.
And a lot of the scientists were really impressed by this.
It should note that the second tumor on Rosie did not respond to the vaccine.
But Paul's currently working to figure out why.
This isn't a cure-all by any means.
And this is just one vaccine for one dog and one specific type of cancer.
But it's still incredible.
And it's still progress, certainly.
So this pipeline already exists at a clinical scale.
There's other major pharmaceutical companies and medical companies
that are doing this, these kind of personalized neoantigen vaccines
for patients with melanoma, which is skin cancer.
And really, it's the same pipeline.
It's just doing it on a larger scale.
They're in a lot of testing and clinical trials for this.
But what this basically does is speed up the process of a vaccine,
which used to take much, much longer.
It can now be done in around six weeks.
But that is kind of the future of this medical field.
So that's the story of Rosie and Paul.
Pretty great story.
So now we're going to try to recreate this for ourselves.
Now, I should say I am not a medical expert in any way.
So please don't take any of this as medical advice or don't get too upset.
If I say so.
It's something that's wrong.
I'm just interested and I like running experiments.
So I thought it'd be fun to explore some of the tools that Paul used
because most of them are accessible and fully free to use.
So we're going to be using real public cancer data for melanoma,
which is skin cancer.
That was the cancer that Rosie had.
And it's very common cancer.
It's one that runs in my family.
So a little bit of a personal to this.
There's a lot of scientific names and different tool names
I'll try to explain as briefly as much as I understand them,
but the actual process itself isn't that difficult to understand.
It's pretty straightforward.
But he's a here are the six steps and these are all free tools to use.
A lot of these are open source.
Now in the case of Paul and Rosie,
he first had to get the the tumor and healthy cells sequenced
because you need to compare them obviously in the second step.
Like I said,
we're going to be using public data for this.
And we're going to be using files from the Cancer Genome Atlas
from the US government project.
And we're going to be starting out these MAF files,
mutation annotation format.
And these already have like a spreadsheet of every mutation found in the patient's tumor.
If you were starting out fresh doing this without that,
you would have to go through this process,
which is using a tool called GATK Mutec2,
which takes two DNA sequencing files,
one from the tumor,
one from healthy tissue of the same patient
and compares them systematically to every position in the genome.
Mutations that appear in the tumor,
but not in the normal are somatic mutations.
And that's what we want.
And they are kind of indicators of the unhealthy cells.
So you can use this tool.
It's a free open source tool.
But to do this analysis,
obviously you're searching every position in the genome.
It takes quite a long time.
It takes four to eight hours running on a consumer GPU.
And the output is called a VCF file,
variant call format.
It's a list of every cancer specific mutation with its position,
the original DNA letter and what it changed to.
So thankfully, because the public data already has this process done,
we're just going to skip this one and just start with the MAF files.
Save.
My poor GPU, some effort,
but this is a step that you would do if you're doing this for real from scratch.
But the end file would be an MAF file.
And this is a site you can find it on.
This is the National Cancer Institute.
And if you want to try this for yourself,
the key thing to keep in mind is that you want to look at this project.
If you're doing melanoma,
PCGA,
SKCM,
and then you want to make sure that it is a primary,
a down here primary tumor,
and that that is the correct data you need.
So I downloaded this,
this MAF file.
And thankfully, these are fairly small,
a few hundred megabytes,
not multiple gigabyte files like you need for the sequencing.
And then we move on to what's the core AI step or core machine learning step.
And there's not all mutations produce proteins the immune system can target.
Like I mentioned before,
the body has specific system for displaying protein fragments to immune cells called the HLA system.
So think of HLA molecules as display cases on the surface of cells.
They hold up small protein fragments for T cells to inspect.
The T cell can see something foreign in the display case,
T cells being immune,
basically your immunity system.
It destroys the cell.
So this process is mainly finding which of the neoantigen
mutations can be targeted by your immune system.
And it uses machine learning and AI for this.
So we're inputting the list of somatic mutations that we got in the MAF file,
plus the patient's HLA type.
We're going to be using these two tools mainly,
PVAC tools and net MHC pan,
which are trained on vast database of known HLA peptide binding.
They predict how strongly each mutated protein fragment will bind to this display case.
It also predicts how visible it is to the immune cells.
And the output is going to be a ranked list of neoantigens.
The top entry is most likely to trigger a strong immune response.
And these are the targets for the vaccine.
So we're going to get started and you need to,
some of these tools you need to use Linux.
So I'm on a Windows machine,
so I'm going to be in WSL.
So you have to install WSL if you don't have it on your machine.
You're also going to need Miniconda,
the Linux version obviously.
So we're installing that first.
Okay, so Miniconda finished installing.
And then you're going to restart your shell.
Okay, and once you restart the terminal,
you're going to,
it might ask you to accept these terms of service for conda.
And then you do this command here,
conda create dash n PVAC tools,
Python equals 3.8 and then dash y.
This will install the PVAC tools.
Then you do conda activate PVAC tools
and then pip install PVAC tools,
which will actually install the tools themselves.
Okay, that is finished installing.
So the next step is the net MHC pan, another tool.
Now we're not actually going to be able to use this one here.
You need to, from what I can tell,
you need a school address.
It won't work just with a Gmail address to download it.
It is free, but you just need,
it's just for academic purposes.
So you would need a school address.
And I am far too many years outside of school
to still have my old college addresses.
But this is the site if you want to want to try it.
And this is the gold standard,
basically for this type of tool.
For predicting these kind of antigens that are more visible.
We're going to be using an alternative,
which is more of an open source tool.
Still fairly good,
not quite as accurate as net MHC pan,
but it'll still get a result that we can work with.
So it's called MHC flurry.
And this is fully open source, runs everywhere.
Still need to use it on Linux,
but that's what we're going to be using with this purpose.
This is the command pip install flurry,
and that'll install it.
And then you do this make flurry downloads fetch.
So this is going to download the model that we need.
Okay, so since we're working with the MAF file,
we have to convert it to the,
VC,
VCF file variant call format.
These are also available on the site,
but they're all controlled.
Unfortunately,
they're not open to the public.
So we're going to have to convert it ourselves,
which is a little bit of a process.
The MAF files are available.
So my open call agent is walking me through this.
It's a lot of various commands we have to run in WSL.
I'll try to give you an overview later,
but that took a lot more work.
Than I thought it was going to be.
But here's an explanation from Scampi of what we had to do.
We had to download the MAF file from the GDC portal,
which is the only ones that are open.
We realized that the tool that we were trying to use
didn't accept MAF.
That was my open call agent's mess up.
So we had to download this human reference genome,
ran this toolkit to convert the MAF into a proper VCF.
So we're still in this step three,
predicting neoantigens,
which is trying to use this machine learning model
to try to identify or predict which neoantigens
our immune system would be able to target
and then use that to create the vaccine.
So this is the heaviest AI machine learning part of this.
So it's taking some time and some trial and error,
but we're making progress.
So once you have the VCF file,
you need to make it annotated using VP.
So we're going to run this locally here.
Right now I'm in the middle of downloading this very large file.
But this is going to, once it's done,
we're going to process the VCF file that we had
so that it gets properly annotated.
And then after that,
we'll finally be able to get back to the step
of running it through PVAC tools
and predicting the antigens
that the immune system is likely to be able to see
and likely to be able to target.
So kind of a trial and error to get here.
I can see why Paul needs to use ChatGBT
as kind of a co-pilot during this entire process.
So I've been using my OpenClaw agent,
who is running on Cloud Sonnet,
to help me through this.
Some trial and error to get this far,
but I think we are towards the end of this process at least.
So I'm going to let this download
and we will continue.
So we finally downloaded that big VP file.
And now we're just extracting it.
And this is a VP cache.
It's a pre-computed database
of all human gene transcript annotations.
So the VP uses it to look up what each variant does,
what gene, what protein change,
without querying any online servers.
We're just going to do this locally.
So once we extract this,
we can run the VP locally
with the plugins that it needs.
So this is a pre-computed VCF file
that we can finally run through PVAC tools
to actually do the neoantigen prediction.
Okay, so the extraction finished.
And we have the folder here.
So now we're doing this command,
activating Conda,
and then running the VP annotation
so that we can finally get our VSVC file.
VCF file, rather,
in the correct format that we need it to.
So this has been a long process,
downloading everything
and running these different scripts.
But I think we're almost at the end.
Okay, so it finished the VP.
And you can see we have this file here.
VP.VCF.
So this is the proper annotated VCF file
that we have.
And it's around 55 megabytes, not huge.
And now we're ready,
finally ready,
to run PVAC tools on this.
And what this command is going to predict
is which of the mutations in the tumor
could trigger an immune response.
So this is the command here.
We're going to try running
to activate PVAC tools.
And then you're going to need
every human has an HLA.
You would usually need to find this separately.
It wasn't in the data set that we had.
So we're just using kind of a generic one
just for demonstration purposes.
And then we're using MHC Flurry.
Now it's executing MHC Class 1 predictions.
So this is predicting which of the mutations
the immunity system could actually properly attack.
You can see it's now making binding predictions
based on the HLA.
And it's using MHC Flurry,
which is a neural network trained on hundreds of thousands
of experimental peptid HLA
binding measurements
to learn the patterns of which amino acid sequences
bind to which HLA types.
So this is the same kind of core step
that you're seeing in a lot of,
like the Moderna and Merck pipeline
that I was talking about before.
This is what you really use to predict
which of the peptides will be present
and which the T cells can recognize them
and really attack them.
So in the case of Paul and Rosie,
Paul actually trained his own model
on dog-specific MHC binding data,
because this is mainly for trained on human data.
So he had to make his own custom one for dogs.
He gathered what dog MHC binding data existed,
trained a custom model,
and then used that for Rosie's predictions.
That was kind of a novel part of his approach
and his experience with AI and machine learning
certainly helped with that.
But the tumors,
the sample that I was using was for humans,
so we can just use this out of the box.
Okay, so it took a while, but it did finally finish.
This is what it looks like.
It's going to complete the process there.
And then this is the file with the filtered,
which has our top candidates.
And according to this file,
my open collation,
I had her process it.
We have a couple of really good candidates here.
A real vaccine would use
multiple neoantigens.
But for the demo,
let's kind of try this top one.
It is a very good score.
Anything under 50,
I believe it said,
is a real strong chance of binding.
And meaning that we could create a vaccine
that could attack this mutation.
So next,
we're going to try to do a visualization with AlphaFold.
And then try to design the mRNA.
So this is AlphaFold server.
This is from Google.
Pretty simple, I guess.
Just input and then continue.
And we will see what we get from this.
This is going to be for a visualization.
So this is another AI tool from Google.
AlphaFold predicts the 3D shape of the peptide,
how it actually folds in physical space.
For a nine amino acid peptide,
like the one we just did,
it'll show a short structure.
There you go.
There's the visualization of our,
but this is what we're going to be creating a vaccine
with AlphaFold.
Pretty cool tool.
Okay.
So lastly,
we're going to be actually creating a mRNA sequence
based on this.
So this was the next step to,
after seeing the visualization,
we would do the,
design the mRNA sequence.
And you can see,
I just had my OpenClaw agent do that.
Using Opus 4.6.
She was able to create the full mRNA sequence.
Breaking it down.
These were all the other elements
from the original sequence.
So this is what you hand to a synthesis lab.
They asked her to break it down a little bit more.
So you have to back translate the peptide.
And then add wrapper elements.
So these are standard sequences
from published vaccine literature,
Moderna, BioNTech papers.
So the neoantigen is the only custom part.
This stuff is pretty standard.
But we did it.
This is what you would hand basically
to the lab.
That's what Paul did with Rosie.
And it's based on that,
that they designed the actual cancer vaccine.
So that's what Paul did.
You could see today,
he kind of explored some of the tools that he used.
He had some custom ones obviously built.
But we tried with open source
and free tools.
So that is from dog story to vaccine recipe.
All free tools, real public data,
the same pipeline.
Moderna is running in phase three human trials.
Built on a laptop.
So it's really exciting.
To see how AI changes a lot of industries
and a lot of fields of knowledge.
And certainly this story is kind of inspiring
and encouraging that one dog owner
was able to do all this.
And have you seen here with my demonstration,
as long as you have the data,
a lot of the machine learning
and AI elements are fairly easy to do.
Just takes a long time,
but anyone can do it.
Now, obviously, there's a lot more to do.
So I'm going to show you
how to do it.
There's a lot more involved in actually creating
cancer vaccines for humans
or even for other dogs.
A lot of regulatory issues as well.
Ethical issues.
But it really shows
what the future holds for this field.
So thank you for watching.
If you have any comments or questions,
please leave a comment.
Please like, subscribe.
And I will see you in the next video.
Thank you for watching.