20 Terms You NEED to Know to Get Started w/ AI Coding and Agents
▶ YouTube 원본01한국어 번역 · Korean
AI 코딩과 에이전트를 시작하기 전에 꼭 알아야 할 20가지 용어
원본: https://www.youtube.com/watch?v=Yn-jat4jrSo · 업로드: 2026-03-19 · 길이: 9m · 채널: Onchain AI Garage
들어가며
많은 사람이 AI 코딩과 AI 에이전트(agent)에 관심을 가지고 있지만, 막상 시작하려고 하면 생소한 용어의 벽에 부딪혀 주눅이 들기 쉽습니다. 처음부터 무슨 말인지 모른 채 헤매지 않으려면 기본 어휘를 먼저 정리하는 것이 훨씬 빠른 길입니다. 오늘은 평소처럼 직접 무언가를 만들거나 실험하는 대신, 한 걸음 물러서서 AI 코딩과 에이전트를 시작할 때 반드시 알아두어야 할 핵심 용어들을 정리해 보겠습니다.
1. AI의 기초 개념
LLM(Large Language Model, 대규모 언어 모델)
LLM은 쉽게 말해 “다음 단어를 예측하도록 훈련된 신경망(neural network)“입니다. 수십억 개의 문장을 학습시키면 모델은 문법, 사실, 추론, 그리고 코드까지 다양한 패턴을 스스로 익히게 됩니다. 이 “다음 단어 예측” 능력이 바로 LLM이 글을 쓰고, 질문에 답하고, 대화를 이어 나갈 수 있는 원동력입니다.
모델(model)
모델은 LLM이라는 기술의 “특정 버전”을 뜻합니다. 예를 들어 Claude Sonnet과 GPT-4o는 모두 LLM이지만, 서로 다른 모델입니다. 자동차로 치면 같은 “엔진 기술”을 기반으로 한 서로 다른 차종이라고 할 수 있습니다. 각 모델은 강점, 성능, 가격대가 다릅니다.
에이전트(agent)
에이전트는 단순히 질문에 답만 하는 것이 아니라, 사용자를 대신해 “행동”을 취하는 AI입니다. 일반 챗봇(chatbot)과 달리 웹을 탐색하고, 메시지를 보내고, 목표 달성을 위해 스스로 의사결정을 내릴 수 있습니다.
LLM · 모델 · 에이전트의 차이
헷갈리기 쉬운 이 세 가지를 자동차에 비유하면 이해가 쉽습니다.
- LLM은 엔진 기술 그 자체 — 언어를 이해하고 생성하는 기반 기술입니다.
- 모델은 그 기술로 만든 “특정 엔진” — Claude Sonnet, GPT-4o, Gemini Flash 같은 각기 다른 제품군이며, 각자 강점과 비용이 다릅니다.
- 에이전트는 그 엔진을 얹어 실제로 굴러가는 “자동차” — 성격(personality), 기억(memory), 도구(tool)를 갖추고 종종 지속적으로 실행됩니다.
즉 LLM이 없으면 모델이 없고, 모델이 없으면 에이전트도 없습니다. 에이전트는 모델이라는 엔진 위에 쌓아 올린 완제품이라고 생각하면 됩니다.
2. AI로 코딩할 때 알아야 할 용어
이제 Claude Code나 Codex 같은 AI 코딩 도구를 쓸 때 자주 만나는 개념들을 살펴봅시다.
토큰(token)
토큰은 LLM이 글을 읽고 쓸 때 사용하는 가장 작은 단위입니다. 하나의 “단어”와 완전히 같지는 않습니다. 예를 들어 영어 단어 “unbelievable”은 세 개 정도의 토큰으로 쪼개질 수 있습니다. 모델마다 한 번에 처리할 수 있는 토큰 수에 한도가 있으며, 추론이 많이 필요한 작업일수록 토큰을 많이 소모합니다.
컨텍스트 윈도(context window)
컨텍스트 윈도는 AI가 한 대화 안에서 “볼 수 있는 모든 것”입니다. 사용자의 메시지, 첨부 파일, 시스템 지시문까지 모두 여기에 들어갑니다. 컨텍스트 윈도의 크기는 모델마다 허용된 토큰 수에 따라 결정되며, 이 범위 안에서는 모델이나 에이전트가 지금까지 한 모든 작업의 세부 내용을 기억하고 활용할 수 있습니다.
컴팩션(compaction)
대화가 길어져 컨텍스트 윈도를 넘어설 것 같으면 컴팩션이 일어납니다. AI가 초반 대화 내용을 요약해 공간을 비우는 과정입니다. 핵심은 유지하지만 세세한 디테일은 일부 잃게 됩니다. 컴팩션 이후에는 주요 파일과 메모리(memory)를 다시 읽어 들여 프로젝트를 이어 갑니다.
프롬프트(prompt)
프롬프트는 사용자가 AI에게 주는 “지시 또는 질문”입니다. 원하는 바를 명확하게 설명할수록 결과물의 품질도 올라갑니다.
CLI(Command Line Interface, 명령줄 인터페이스)
CLI는 버튼을 클릭하는 대신 터미널에 명령어를 입력해 소프트웨어를 조작하는 텍스트 기반 인터페이스입니다. 익숙해지면 GUI보다 훨씬 빠르고, 스크립트로 작업을 자동화할 수 있다는 장점이 있습니다. Claude Code와 OpenClaw는 대표적인 CLI 도구로, Command Prompt나 PowerShell 같은 터미널에서 실행됩니다.
MCP(Model Context Protocol)
MCP는 AI가 외부 도구와 일관된 방식으로 연결되도록 만든 표준입니다. “범용 소켓”에 비유할 수 있습니다. 이 표준을 따르는 도구를 한 번 만들어 두면, 호환되는 모든 AI가 그 도구를 쓸 수 있습니다.
툴 사용(tool use)
툴 사용은 AI가 대화 도중에 외부 서비스에 손을 뻗을 수 있는 능력입니다. 웹을 검색하거나, 코드를 실행하거나, 파일을 읽고 쓰는 등의 작업이 여기에 해당합니다. AI를 “진짜로 쓸모 있게” 만들어 주는 핵심 기능입니다.
API(Application Programming Interface)
API는 두 소프트웨어 사이의 연결 지점입니다. 사용자가 만든 앱은 API를 통해 Claude 같은 모델과 대화하거나, 외부 서비스에서 스포츠 데이터 같은 정보를 가져올 수 있습니다. 현대 소프트웨어가 서로 통신하는 일반적인 방식이 바로 API입니다.
프론트엔드(front-end)
프론트엔드는 사용자가 직접 보고 조작하는 앱의 “앞면”입니다. 버튼, 화면, 입력 폼 같은 것들이 모두 프론트엔드에 속하며, UI(user interface)와 UX(user experience)라는 용어와도 맞닿아 있습니다.
백엔드(back-end)
백엔드는 뒤에서 조용히 돌아가는 부분 — 서버, 데이터, 로직입니다. 대부분의 AI 호출은 백엔드에서 일어나고, 결과는 데이터베이스에 저장된 뒤 프론트엔드를 통해 사용자에게 전달됩니다.
로컬호스트(localhost)
로컬호스트는 앱을 자신의 컴퓨터 위에서만 돌리는 개발 환경입니다. 외부에서는 접근할 수 없고 오직 나만 쓸 수 있기 때문에, 실제 서비스로 올리기 전에 여러 기능을 안전하게 테스트할 수 있습니다.
3. AI 에이전트를 운영할 때 알아야 할 용어
이제 OpenClaw 같은 AI 에이전트를 사용할 때 자주 등장하는 용어들입니다.
에이전트(agent, 자율 시스템 관점)
앞서 설명한 에이전트를 조금 더 정교하게 정의하면, “자신의 성격, 기억, 도구, 스케줄을 가진 완전 자율 시스템”입니다. 누가 불러 줄 때까지 기다리지 않고 스스로 상황을 확인하고, 백그라운드에서 작업을 처리하며, 멈추지 않고 돌아갑니다.
스킬(skill)
스킬은 에이전트에 설치할 수 있는 “패키지화된 능력”입니다. 웹 검색, 캘린더 읽기, GitHub에 게시하기, Solana와의 상호작용 등 스킬 하나하나가 새로운 기능을 추가해 줍니다.
메모리(memory)
메모리는 에이전트가 사용자를 기억하는 방식입니다. 파일 형태로 저장되어 있으며, 에이전트가 시작할 때마다 이 파일을 읽어 “이 사용자는 누구이고, 지금 어떤 작업을 진행 중인지”를 파악합니다. 에이전트는 도구를 활용해 필요한 순간에 이 메모리를 꺼내 씁니다.
하트비트(heartbeat)
하트비트는 에이전트가 스스로 수행하는 “주기적 점검”입니다. 정해진 간격마다 깨어나 처리해야 할 일이나 미리 작성된 과제가 있는지 확인하고, 필요하면 행동하고 그렇지 않으면 다시 조용해집니다.
크론 잡(cron job)
크론 잡은 컴퓨터에 예약된 작업입니다. 예를 들어 “평일 매일 오전 9시에 보고서 게시” 같은 식으로 스케줄을 한 번 걸어 두면, 이후에는 별도의 대화 없이도 자동으로 실행됩니다.
서브 에이전트(sub-agent)
서브 에이전트는 한 에이전트가 작업을 병렬로 처리하기 위해 또 다른 에이전트를 생성하는 구조입니다. 메인 에이전트는 사용자와 대화를 이어 가고, 서브 에이전트는 뒤에서 맡은 작업을 처리합니다.
세션(session)
세션은 하나의 “대화 스레드”입니다. 에이전트는 여러 세션을 동시에 운영할 수 있어, 일반 주제용 세션, 특정 프로젝트 전용 세션, 백그라운드 작업 세션을 동시에 굴릴 수 있습니다.
게이트웨이(gateway)
게이트웨이는 에이전트를 살아 있게 유지해 주는 “항상 실행 중인 백그라운드 프로세스”입니다. 들어오는 메시지를 처리하고, 예약된 작업을 돌리고, 모든 흐름을 올바른 방향으로 라우팅합니다. 게이트웨이가 없으면 에이전트도 없습니다.
환각(hallucination)
환각은 AI가 사실이 아닌 내용을 아주 자신만만하게 말하는 현상입니다. 자신이 틀렸다는 것 자체를 인지하지 못합니다. 예를 들어, 분명히 디렉터리 안에 있는 파일에 대해 에이전트에게 요약을 부탁했는데, 에이전트가 “그런 파일은 존재하지 않는다”고 단언하는 경우가 전형적인 환각입니다.
마치며
지금까지 AI 코딩과 AI 에이전트를 시작할 때 꼭 알아야 할 20가지 용어를 정리해 보았습니다. 용어가 머릿속에 들어왔다면, 이제 남은 일은 직접 무언가를 만들어 보는 것뿐입니다. 이 채널에서는 다양한 AI 도구와 에이전트를 실제로 만들고 실험하며 AI의 세계를 더 깊게 파고들고 있으니, 도움이 되셨다면 좋아요와 댓글, 구독으로 응원해 주시기 바랍니다. 시청해 주셔서 감사합니다.
02리서치 문서 · Document
AI 코딩의 새로운 문법: 에이전트 시대의 핵심 어휘 20선 정리
원본 영상: YouTube · 업로드: 2026-03-19 · 채널: Onchain AI Garage (@OnchainAIGarage)
서론 — “용어”가 장벽이 되는 시대
2024년부터 2026년 사이, AI 코딩의 풍경은 완전히 달라졌다. 과거에는 “프롬프트를 잘 쓰는 법”이 곧 AI 활용 기술의 전부처럼 여겨졌다면, 지금은 에이전트(agent), MCP(Model Context Protocol), 컴팩션(compaction), 하트비트(heartbeat) 같은 생소한 단어들이 개발자 대화의 일상적인 어휘가 되었다. Onchain AI Garage의 영상 “20 Terms You NEED to Know to Get Started w/ AI Coding and Agents”는 이 새로운 어휘 지형을 한 번에 조망하는 입문자용 지도와 같다.
그러나 이 용어들은 단순한 “신조어 모음”이 아니다. 각 단어는 지난 2년 동안 업계가 겪은 구조적 전환 — 단일 챗봇(chatbot)에서 자율 에이전트로, 닫힌 모델에서 도구와 연결되는 개방형 프로토콜로, 대화형 UX에서 백그라운드에서 쉬지 않고 돌아가는 데몬형 AI로 — 의 흔적을 담고 있다. 이 글에서는 영상이 다룬 20개 용어를 바탕으로 현재 AI 코딩 생태계의 세 가지 축 — “기반 모델”, “코딩 인터페이스”, “자율 에이전트” — 을 정리하고, 이 흐름이 왜 지금 중요한지를 살펴본다.
본론
1. 기반 개념 — LLM, 모델, 에이전트라는 삼단 구조
영상이 가장 먼저 정리하는 것은 LLM, 모델, 에이전트의 차이다. 이 셋은 자주 혼용되지만 엄연히 다른 층위에 있다. LLM은 “다음 토큰(token)을 예측하도록 학습된 신경망”이라는 기술 자체이고, 모델은 그 기술을 특정 데이터·파라미터·튜닝으로 완성해 이름을 붙인 산출물(Claude Sonnet, GPT-4o, Gemini Flash 등)이다. 에이전트는 한 걸음 더 나아가 그 모델 위에 기억, 도구, 스케줄, 성격(persona)을 얹어 “스스로 결정하고 행동하는 시스템”을 만든 것이다.
이 차이는 추상적인 말장난이 아니다. IBM의 Think 블로그는 AI 에이전트를 “가용한 도구들을 이용해 작업 흐름을 설계하고 자율적으로 과제를 수행하는 시스템”으로 정의하며, 단순히 응답만 내놓는 챗봇과 명확히 선을 긋는다. MIT Sloan의 해설 역시 “에이전트형 AI(agentic AI)“의 핵심은 지속적인 관찰, 계획, 도구 호출로 이어지는 자율성에 있다고 강조한다. 영상의 자동차 비유 — “LLM은 엔진 기술, 모델은 특정 엔진, 에이전트는 그것을 얹어 굴러가는 자동차” — 는 이 구조를 한 번에 납득시키는 데 매우 효과적이다.
2. AI 코딩의 해부학 — 토큰, 컨텍스트, 컴팩션
Claude Code나 Codex 같은 AI 코딩 도구를 사용하다 보면 반드시 마주치는 개념이 토큰과 컨텍스트 윈도(context window), 그리고 컴팩션이다. 토큰은 모델이 실제로 “보는” 최소 단위로, 단어와 1:1로 대응하지 않는다는 점이 포인트다. “unbelievable” 같은 단어는 세 개 이상의 토큰으로 쪼개질 수 있고, 결과적으로 동일한 문장이라도 언어·알파벳·코드 스타일에 따라 토큰 사용량이 달라진다.
컨텍스트 윈도는 한 세션에서 모델이 “동시에 볼 수 있는” 토큰의 최대량이다. 사용자의 메시지, 첨부 파일, 시스템 지시문, 그리고 앞선 대화 이력까지 모두 이 안에 들어가야 한다. 컨텍스트 윈도가 꽉 차면 컴팩션이 일어난다. 초반 대화를 요약해 공간을 비우는 과정인데, 이 과정에서 세부 디테일은 손실되지만 핵심 요점과 결정 사항은 유지된다. 실무적으로는, 장시간 이어지는 AI 페어 프로그래밍 세션에서 “왜 갑자기 모델이 초반에 합의한 내용을 잊었는가?” 같은 의문이 들 때 컴팩션을 의심해 볼 만하다. 그래서 많은 숙련된 사용자들이 “핵심 규칙은 반드시 파일로 남기고 모델이 시작할 때마다 그 파일을 읽도록 한다”는 습관을 들이고 있다.
3. 연결의 언어 — MCP, 툴 사용, API
개별 모델이 아무리 똑똑해도 외부 세계와 연결되지 않으면 에이전트가 되지 못한다. 영상에서 MCP를 “범용 소켓”에 비유한 것은 이 때문이다. MCP, 즉 Model Context Protocol은 AI가 외부 도구, 데이터 소스, 시스템과 일관된 방식으로 연결되도록 설계된 개방형 표준이다.
MCP는 2024년 11월 Anthropic이 처음 발표한 이후 빠르게 업계 표준으로 자리잡았다. Anthropic의 공식 소개에 따르면 MCP는 AI 어시스턴트를 콘텐츠 저장소, 업무 관리 도구, 개발 환경 같은 데이터 시스템에 연결하는 공개 프로토콜을 목표로 설계되었다. The New Stack의 분석 기사는 OpenAI, Google DeepMind, Microsoft는 물론 Zed·Sourcegraph 같은 개발 도구 업체까지 MCP를 채택하면서 사실상 “AI-도구 연결의 디팩토 표준”이 되었다고 평가한다. Wikipedia의 MCP 문서에 따르면 2025년 12월 Anthropic은 MCP의 관리 권한을 Linux Foundation 산하의 Agentic AI Foundation(AAIF)에 기부해, 단일 벤더 표준이 아닌 중립적 공공재로 바꿨다.
MCP가 중요한 이유는 “한 번 만들면 모든 호환 AI가 쓸 수 있다”는 보편성 때문이다. 이전까지는 AI 어시스턴트마다 툴 호출 규약이 달라 개발자가 매번 어댑터를 새로 짜야 했다. MCP는 이 작업을 USB 같은 공용 규격으로 통일시키면서, “툴 사용(tool use)“이라는 개념 자체를 대중화시켰다. 영상이 툴 사용을 “AI를 진짜로 쓸모 있게 만드는 것”이라고 단언한 것은 결코 과장이 아니다.
4. 에이전트의 생명 유지 장치 — 메모리, 하트비트, 크론, 게이트웨이
에이전트가 “돌아간다”는 말은 구체적으로 무엇을 뜻할까? 영상 후반부의 용어들 — 메모리(memory), 하트비트(heartbeat), 크론 잡(cron job), 서브 에이전트(sub-agent), 세션(session), 게이트웨이(gateway) — 은 에이전트가 “살아 있기” 위해 필요한 최소 장치들을 나열한다.
메모리는 에이전트가 사용자의 정체성과 작업 맥락을 기억하는 저장소로, 일반적으로 파일 기반이며 에이전트가 부팅할 때마다 읽힌다. 하트비트는 에이전트가 주기적으로 스스로 깨어나 “해야 할 일이 있는지” 확인하는 루프고, 크론 잡은 특정 시각에 미리 정의된 작업을 수행하도록 스케줄된 작업 단위다. 서브 에이전트는 메인 에이전트가 병렬로 일을 처리하기 위해 자식 프로세스처럼 또 다른 에이전트를 띄우는 구조이며, 세션은 개별 대화 스레드다. 이 모두를 한데 묶어 계속 돌아가도록 관장하는 “상시 실행 프로세스”가 바로 게이트웨이다.
Indujitechnologies의 비교 분석이 지적하듯, 챗봇과 에이전트의 결정적인 차이는 “호출을 기다리는가, 스스로 깨어나는가”에 있다. 하트비트와 게이트웨이는 바로 이 “스스로 깨어남”을 기술적으로 가능하게 만드는 장치다. 챗봇은 하나의 HTTP 요청—응답 사이클이면 충분하지만, 에이전트는 상시 가동되는 백그라운드 루프와 이벤트 큐, 그리고 그 안에서 실행될 작업 스케줄러를 필요로 한다. 이 점에서 에이전트는 애플리케이션이라기보다는 “작은 운영체제” 에 더 가깝다.
5. 함정 — 환각과 과도한 자율성
마지막으로 영상이 짚는 환각(hallucination)은 이 모든 구조의 가장 큰 리스크다. 모델은 디렉터리에 있는 파일을 “없다”고 자신 있게 말할 수 있고, 에이전트는 그 잘못된 전제 위에 여러 단계의 행동을 쌓을 수 있다. 자율성이 높아질수록 환각의 비용도 기하급수적으로 커진다. 그래서 “에이전트를 설계한다”는 말은 “어떻게 일을 시킬 것인가”만이 아니라 “어디서 사람이 개입해 환각을 잘라낼 것인가”를 설계한다는 뜻이기도 하다.
핵심 인사이트
- 용어는 시대의 지형도다. 2년 전이라면 이 20개 용어의 절반은 존재하지도 않았다. 용어의 축적은 기술의 축적이고, 용어를 이해한다는 것은 곧 업계의 현재 위치를 안다는 뜻이다.
- LLM → 모델 → 에이전트의 계층은 역할 분리의 지도다. 이 계층을 뭉뚱그려 이해하면 “왜 내 에이전트가 느린가”나 “왜 비용이 폭발하는가” 같은 실전 문제를 진단하기 어렵다.
- MCP는 단순한 프로토콜이 아니라 생태계 통합의 접착제다. 도구 생태계가 하나의 표준 위에 쌓이면 개발자의 학습 곡선이 극적으로 완만해진다. USB-C가 케이블 업계를 정리한 것과 비슷한 효과를 AI 툴 세계에 가져오고 있다.
- 에이전트의 본질은 “계속 살아 있음”이다. 메모리, 하트비트, 게이트웨이, 크론은 이 “살아 있음”을 구성하는 하위 부품이며, 이 관점이 빠지면 에이전트와 챗봇의 차이를 이해할 수 없다.
- 자율성과 환각은 동전의 양면이다. 스스로 결정하는 능력을 키울수록 잘못된 결정을 내렸을 때의 여파도 커진다. 인간의 개입 지점을 어디에 둘 것인가가 곧 에이전트 설계의 진짜 난제다.
더 알아보기
- Anthropic — Introducing the Model Context Protocol: MCP의 최초 공식 발표 글로, 설계 철학과 초기 유스케이스가 정리되어 있다.
- The New Stack — Why the Model Context Protocol Won: MCP가 어떻게 업계 표준으로 자리잡았는지, 그 경쟁 구도와 채택 사례를 짚은 분석 기사.
- Wikipedia — Model Context Protocol: MCP의 연혁, 2025년 Linux Foundation 기부, 주요 기능까지 한 번에 훑을 수 있는 개요 문서.
- IBM Think — What Are AI Agents?: 에이전트의 정의, 구성 요소, 기업 도입 관점을 정리한 입문 자료.
- MIT Sloan — Agentic AI, Explained: “에이전트형 AI”라는 개념의 학문적·비즈니스적 함의를 정돈해 설명하는 글.
- Indujitechnologies — Agentic AI vs. Chatbots: 자율 워크플로 관점에서 챗봇과 에이전트의 차이를 구체 사례로 보여 주는 비교 자료.
03찬반 토론 · Debate
토론: “AI 코딩에 입문하려면 먼저 20개의 전문 용어부터 익혀야 한다”
논제: 초보자가 AI 코딩과 에이전트의 세계에 진입할 때, “용어 정리”를 앞세우는 접근은 실용적인 첫걸음인가, 아니면 오히려 손발을 묶는 허들인가?
Round 1
🟢 Pro — “용어는 사고의 해상도를 결정한다. 먼저 어휘를 정비하라”
AI 코딩의 세계는 지난 2년간 폭발적으로 확장했다. LLM, 모델, 에이전트, 토큰(token), 컨텍스트 윈도(context window), 컴팩션(compaction), MCP, 툴 사용, 하트비트(heartbeat), 게이트웨이(gateway)… 이 단어들은 단순히 멋을 내기 위해 붙은 레이블이 아니라, 각각이 시스템 아키텍처의 서로 다른 층위를 가리키는 기술 용어다. 용어를 모르면 문서를 읽을 수 없고, 문서를 읽지 못하면 디버깅할 수 없으며, 디버깅할 수 없으면 배울 수 없다.
Pro 진영의 핵심 주장은 이것이다. “용어는 사고의 해상도”다. “에이전트가 이상하다”는 막연한 느낌은 “컨텍스트 컴팩션 이후 메모리 파일 재로딩이 실패했다”는 구체적 진술로 바뀔 때 비로소 해결의 출발점이 된다. Onchain AI Garage의 영상이 20개 용어를 한 번에 정리해 주는 것은 바로 이 해상도를 초보자에게 단시간에 장착시켜 주기 위한 실용적 처방이다.
게다가 AI 도구 생태계는 유난히 “용어의 밀도”가 높다. 일반적인 웹 개발에서는 HTTP, DB, 프론트엔드·백엔드 정도만 알아도 한동안은 버틸 수 있지만, AI 코딩에서는 하나의 도구를 열자마자 “MCP 서버를 연결하시겠습니까?”, “서브 에이전트(sub-agent)를 띄울까요?”, “컴팩션 임계치를 조정할까요?” 같은 질문이 쏟아진다. 이 상황에서 용어 없이 실습부터 시작하라는 조언은 “수영장에 빠뜨리면 알아서 수영한다”는 구시대적 스파르타식 훈련에 가깝다.
🔴 Con — “용어는 실습의 부산물이다. 먼저 만들고, 단어는 뒤따르게 하라”
반대쪽의 주장은 단순하지만 강력하다. 프로그래밍은 본질적으로 “손으로 배우는” 기술이며, 이는 수십 년의 교육학 연구가 일관되게 확인해 온 바다. Joe Casabona의 교육학 에세이는 “즉시 생산성을 느끼는 경험”이 초보자를 끌어당기는 가장 강력한 힘이라고 지적하고, freeCodeCamp의 학습 가이드 또한 개념 공부만으로는 결코 실제 프로젝트에 대비할 수 없다고 단언한다.
Con 진영이 볼 때, 영상이 제시한 “20개 용어 암기”는 초보자에게 잘못된 인상을 준다. 마치 시험 직전에 용어집을 암기해야 본 게임을 시작할 자격이 생기는 것처럼 말이다. 그러나 실제로 Claude Code나 OpenClaw 같은 도구를 열어 “파일을 읽고, 함수를 바꿔 달라”고 한 줄만 시켜 봐도, 토큰·컨텍스트·툴 사용이 무엇인지 몸으로 느껴진다. 그리고 그때 용어를 만나면, 그 의미는 영상을 본 1분 만에 납득된다. 즉 용어는 “선행 조건”이 아니라 “사후 정리”여야 한다.
더 나아가, 용어 암기 선행은 초보자에게 불필요한 공포를 심는다. “하트비트, 게이트웨이, 서브 에이전트…” 같은 단어들이 처음부터 쏟아지면, 많은 사람들은 “나는 아직 준비가 안 됐다”며 실제 손을 대는 순간을 무한히 유예한다. 그 사이에 AI 도구들은 매주 업데이트되고, 용어는 다시 쓰이고, 결국 어휘집은 낡는다. 그러므로 초보자에게 필요한 첫 번째 조언은 “용어를 외우라”가 아니라 “지금 당장 프롬프트를 한 줄 쳐 보라”다.
Round 2
🟢 Pro (재반론) — Con의 “실습 우선” 논리에 빠진 두 가지 구멍
Con의 첫째 주장, 즉 “프로그래밍은 손으로 배운다”는 교육학적 원칙은 고전 프로그래밍 교육에서는 유효할지 몰라도 AI 코딩에는 부분적으로만 적용된다. 고전 프로그래밍에서는 for 루프나 함수 정의가 화면에 보이고, 틀리면 에러가 명확히 나타난다. 반면 AI 코딩에서는 “무엇이 왜 일어났는지”가 대부분 가려져 있다. 컨텍스트 윈도가 넘쳤는지, 컴팩션이 초반 지시를 지웠는지, 서브 에이전트가 잘못된 세션에서 돌아갔는지 — 이 중 무엇도 에러 메시지로 친절히 튀어나오지 않는다. 용어가 없으면 “왜 잘 되다가 갑자기 안 될까?”에 답할 언어조차 없다.
Con의 둘째 주장, 즉 “용어 암기는 공포를 심는다”는 심리적 우려도 일면 이해하지만, 원인과 결과가 뒤집혀 있다. 초보자가 겁을 먹는 진짜 이유는 용어의 “개수”가 아니라 “구조 없는 난삽함”이다. 영상이 20개 용어를 “기초 개념 → 코딩 도구 → 에이전트 운영”이라는 세 층위로 구조화해 정리한 것은, 난삽함을 줄여 오히려 공포를 완화하는 처방이다. Con은 “암기 대 실습”의 이분법으로 이야기를 단순화하지만, 진짜 싸움은 “구조 있는 개요 vs 구조 없는 즉흥 실습”이다.
마지막으로, Con이 인용한 교육학 연구들 자체가 사실상 “균형”을 지지한다는 점도 짚어야 한다. freeCodeCamp 가이드조차 “기본 개념과 실습을 교차해야 한다”고 말한다. 그 “기본 개념”의 AI 코딩 버전이 바로 20개 용어 개요다. 즉 Pro는 “용어만 외우자”고 주장한 적이 없다. “구조화된 개요 위에서 실습하자”는 온건하고 균형 잡힌 입장이다.
🔴 Con (재반박) — Pro의 “해상도” 논리는 사실 후행적 착각이다
Pro의 첫째 주장, “용어는 사고의 해상도”라는 멋진 비유는 이미 어느 정도 그 세계에 익숙해진 사람이 뒤돌아보며 내놓는 후행적 감상이다. 용어가 해상도를 준다고 느끼는 것은, 그 용어에 붙일 “경험의 픽셀”이 이미 머릿속에 있기 때문이다. 경험이 없는 초보자에게 “게이트웨이는 상시 실행 백그라운드 프로세스입니다”라고 말해 봐야, 그 문장 자체를 또 다른 외계어로 받아들인다. Pro는 자신이 이미 건너온 다리를 걷어차며 “먼저 다리부터 공부해라”고 말하는 선배의 모습과 다름없다.
Pro의 둘째 주장, “AI 코딩은 에러 메시지로 친절히 안 나오기 때문에 용어가 필수”라는 진단 역시 역설적으로 실습의 중요성을 뒷받침한다. 왜 에러 메시지가 불친절한 세계에서 용어집만 읽고 있는가? 불친절한 세계일수록 더 빨리, 더 많이 실패해 봐야 감각이 쌓인다. 오히려 용어집을 먼저 읽은 학습자는 “읽었는데 왜 내 에이전트가 안 돌지?”라는 이중의 좌절을 겪기 쉽다. 이론과 현실의 괴리가 고통의 원천이 된다.
마지막으로 Pro가 “구조 있는 개요”를 옹호한 부분은 얼핏 합리적으로 들리지만, 실제 교육 현장에서 “20개 용어를 한 번에 듣기” 같은 몰아치기식 개요는 대부분 한 귀로 들어왔다 한 귀로 나간다. Medium의 인지과학 기반 교수법 에세이가 강조하듯, 학습자는 스스로 에러를 읽고 코드의 동작을 추론할 때 개념을 “내재화”한다. 즉 개요가 나쁜 것은 아니지만, 그것은 실습 도중에 필요 순간에 꺼내 보는 레퍼런스여야 하지, 실습 전에 먼저 욱여넣는 커리큘럼이어서는 안 된다.
Round 3
🟢 Pro — Con의 “후행적 착각” 공격에 답한다
Con의 “용어가 해상도를 준다는 건 후행적 착각”이라는 공격은 날카롭지만, 부분적 진실에 머문다. 분명히 “게이트웨이”라는 단어 하나를 듣고 그 의미를 즉시 체감하기는 어렵다. 그러나 Pro가 옹호하는 것은 “단어 암기”가 아니라 “지형도 스케치”다. 영상이 20개 용어를 자동차 비유, 범용 소켓 비유, 자율 시스템 비유로 설명한 것은, 추상적 단어를 학습자의 기존 경험과 연결해 “대강의 지형”을 그려 주는 작업이다. 지형도가 있으면 실습 중에 마주친 에러 하나가 “LLM 쪽 문제인지, 컨텍스트 쪽인지, 에이전트 루프 쪽인지” 가늠할 수 있다. 지형도 없이 실습에 들어가면, 문제는 언제나 “AI가 이상해요” 한 문장으로 뭉개진다.
Con이 두 번째로 제기한 “불친절한 에러일수록 더 많이 실패해 보자”는 주장은 시간과 자원이 충분한 취미 학습자에게는 유효하다. 하지만 현업에서 AI 코딩을 도입해야 하는 사람들에게는 사치다. API 호출마다 비용이 쌓이고, 팀 동료의 검토 시간이 소모되며, 실패 한 번이 배포 사고로 이어질 수 있는 맥락에서는 “용어가 주는 최소한의 공통 언어”가 훨씬 실용적이다. 환각(hallucination)이라는 단어 하나만 알아도, 동료에게 문제를 보고할 때의 대화 시간이 수십 분 단축된다.
마지막으로 Con이 인용한 Medium 에세이의 “스스로 에러를 읽고 내재화하라”는 원칙에 Pro는 전적으로 동의한다. 다만 그 “스스로 읽기”에도 최소한의 기초 어휘가 필요하다는 점을 강조하고 싶다. “에이전트”, “컨텍스트”, “툴”이라는 단어 셋만 알아도, 동일한 에러 메시지에서 얻어 가는 정보량이 다르다. 용어는 실습의 대체재가 아니라, 실습의 해석 레버리지다.
🔴 Con — Pro의 “지형도”, “공통 언어” 논리에 마지막 반박
Pro가 말하는 “지형도 스케치”는 매력적인 비유지만, 지형도라는 것도 결국 “걸어 본 땅”에서만 쓸모를 발휘한다. Pro가 언급한 자동차 비유, 범용 소켓 비유는 영상 시청 순간에는 근사하게 들리지만, 시청이 끝난 뒤 하루만 지나도 대부분의 초보자는 “게이트웨이? 뭐였더라?”로 돌아간다. 인지과학의 단순한 사실이다. 맥락 없는 어휘는 휘발된다. 반면에 실습 중 “왜 내 에이전트가 10분마다 깨어나지?”라는 질문과 함께 “하트비트”라는 단어를 만나면, 그 단어는 그대로 박힌다.
Pro가 “현업의 비용과 시간”을 들며 “공통 언어”의 실용성을 강조한 부분도 재고가 필요하다. 현업에서 필요한 것은 팀 전체가 합의한 용어인데, 영상이 제시한 20개 용어는 실은 업계 표준이 아니라 특정 도구 생태계(Claude Code, OpenClaw 중심)의 방언에 가깝다. “게이트웨이”, “하트비트”, “스킬”은 도구마다 정의가 다르고, 어떤 팀에서는 아예 쓰지 않는다. 따라서 초보자가 “이 20개를 외우면 업계 공통 언어를 얻는다”고 생각한다면 위험한 오해다. 정작 현업에서는 팀이 쓰는 도구를 함께 만져 보며 용어를 맞춰 가는 쪽이 훨씬 안전하다.
마지막으로 Pro의 “용어는 실습의 해석 레버리지”라는 표현에 Con은 절반만 동의한다. 해석을 위한 지렛대라는 점은 맞다. 그러나 지렛대는 들어 올릴 무게가 있어야 의미가 있다. 실습이라는 무게가 없는 상태에서 지렛대만 손에 쥐여 주는 것은, 결국 사용되지 않는 도구를 안기는 일이다. Con의 최종 결론은 이것이다. 실습을 5분 하고 용어 1개를 배우는 교차 학습이, 용어 20개를 단숨에 훑고 실습으로 넘어가는 것보다 거의 항상 우월하다.
🧭 종합
합의 지점
두 진영이 결국 동의하는 지점은 명확하다. 첫째, 용어와 실습 중 하나만 선택하는 순수 이분법은 비현실적이다. 둘째, 교육학 연구가 가리키는 최적 전략은 “개념과 실습을 교차하는 하이브리드”다. 셋째, AI 코딩은 추상화 층이 두껍고 에러가 불친절하므로, 일반 프로그래밍보다 개념어의 역할이 약간 더 크다는 점은 부정하기 어렵다. 넷째, 영상이 제시한 20개 용어 목록 자체는 훌륭한 참조 자료이며, 문제는 그것을 “선행 암기 대상”으로 제시하느냐 “실습 보조 사전”으로 제시하느냐의 프레이밍이다.
열린 질문
- AI 코딩 입문자에게 이상적인 “개념:실습”의 시간 비율은 얼마인가? 20:80인가, 40:60인가, 혹은 도구와 배경에 따라 크게 달라지는가?
- 용어의 유효 기간은 얼마인가? 2024년에 “핫”했던 용어 중 2026년에도 유효한 것은 얼마나 될 것이며, 변화 속도가 빠른 영역에서 어휘 선행 학습은 수익률이 어떠한가?
- 팀 현장에서 쓰는 용어는 대체로 도구 생태계의 방언이다. 업계 공통 용어와 도구별 방언을 어떻게 구분해 가르칠 수 있을까?
- 에이전트 시대에 “프로그래머가 된다”는 것은 점점 “시스템 설계자가 된다”는 것에 가까워지고 있다. 이 전환 속에서 초보자의 첫 학습 경로는 어떻게 재설계되어야 할까?
더 나아간 관점
이 논쟁을 한 걸음 벗어나서 보면, 실은 AI 코딩 교육에서 필요한 것은 “용어 vs 실습”의 선택이 아니라, 두 축을 엮어 주는 “세 번째 축” — 피드백 루프의 설계 — 이다. 용어를 먼저 주었더라도, 실습 도중 그 용어가 언제 필요한지 즉시 꺼내 쓸 수 있는 환경이라면 암기 부담은 사라지고 지형도는 남는다. 반대로 실습 우선이더라도, 학습자가 “이 현상에는 어떤 이름이 붙어 있지?”라고 자연스럽게 되묻고 즉시 찾아볼 수 있는 레퍼런스가 가까이에 있다면, 용어는 조용히 체득된다. 즉 진짜 문제는 “순서”가 아니라 “연결 장치”의 부재다.
영상이 20개 용어를 3개 층위로 구조화해 정리한 것은 이 연결 장치의 한 형태다. 더 멀리 가려면 이 목록을 실제 에이전트의 에러 로그, 구성 파일, 대시보드 화면과 “단어 단위로” 연결해 주는 인터랙티브 교재가 필요할 것이다. 그때 비로소 Pro의 “지형도”와 Con의 “실습 중 체득”이 같은 페이지에서 만난다.
결국 논제 “AI 코딩에 입문하려면 먼저 20가지 전문 용어부터 익혀야 한다”에 대한 합리적 답은 이렇다. “먼저” 익힐 필요는 없지만, “일찍, 그리고 구조적으로” 만나야 한다. 그리고 그 만남은 반드시 손이 움직이는 실습과 짝을 이루어야 한다. 영상의 20개 용어는 이 짝의 한쪽 바퀴일 뿐이며, 나머지 한 바퀴는 결국 학습자 자신의 터미널 창 안에서만 굴러간다.
04영문 원본 · Transcript
I think a lot of people are interested in AI coding and using AI agents, but it can be really intimidating to get started. There's a lot of terms and words and vocabulary you need to know just to get started and not be just confused from the start. So in today's video, I wanted to take a step back from building and experimenting like we usually do and try to clarify some of the top terms that you need to know to get started with AI coding and agents. So we'll briefly go over the AI foundations you need to understand. First, we have large language models or LLMs, and they're basically a neural network trained to predict the next word. You feed it billions of sentences and it learns patterns, grammar, facts, reasoning, and even code. That prediction ability is what lets it write, answer questions, and hold conversations. Models are the specific version of an LLM you're talking to. Claude Sonnet and GBT-40 are both AI cars. They're both different models, but different makes with different strengths and different price points. Now, an agent is an AI that doesn't just answer questions, but takes actions on your behalf. Unlike a chatbot, it can browse the web, send messages, and make decisions to complete a goal. Now, what's the difference between an LLM, a model, and an agent? The LLM is the underlying technology. It's the thing that understands and generates language. A model is the specific trained version of that technology. Claude Sonnet, GBT-40, Gemini Flash. They all have different strengths and different costs. The agent is what you can build with a model. It has personality, memory, tools, and oftentimes runs continuously. Think of it like a car. The LLM is an engine technology. The model is the specific engine, and the agent is actually the car that gets you where you need to go. Next, we're going to be looking at coding with AI tools like Claude Code or Codex. A token is the basic unit an LLM reads and writes. It's not quite a word. Unbelievable might have three tokens. Models have limits on how many they can handle at once. Certain tasks require a lot of tokens because it requires a lot of thinking from the LLM. Context, or the context window, is everything an AI can see in one conversation. Your messages, files, and instructions. The context window is everything an AI can see in one conversation. Your messages, files, and instructions. Context blocks the intelligence of a table that senses something. And in T1-DT, the context window also means that data can turn your mind on value. That's exactly what theseigg's defaults are..'" Feels and bullet points are things that human beings can read. They're觶ĭ license Smells haciendo Russell wait for information. Transmot irgendwo and turn too many, I sound like you." ContextWindow is limited by how many tokens is allowed inside ContextWindows per model. Within these ContextWindows, the model or agent will have full understanding and memory of every little detail that it did. Compaction is what happens when a conversation gets too long. The AI summarizes early parts to free up space, keeping key points but losing some fine detail. After compaction, it reads key files and memories in order to proceed with the project. Prompts are the instruction or question you give an AI. The more clearly you describe what you want, the better your output will be. CLI is Command Line Interface. This is a text-based way to control software by typing commands in a terminal instead of clicking buttons. It's faster than GUIs once you learn how to do it, and it lets you automate tasks. With scripts, Clawed Code and OpenClaw are CLI tools and run in terminals like Command Prompt and PowerShell. MCP is a standard that lets AI connect to outside tools consistently. It's like a universal socket. Build one tool that follows the standard, and any compatible AI can use it. Full Use is when an AI can reach out to external services mid-conversation. It can search the web, it can run code, it can read or write files. This is what makes AI genuinely useful. API is Application Programming Interface. It's the connection point between two pieces of software. Your apps can talk to Clawed models through APIs or fetch data like sports data using this API service. APIs are how modern software is. Software communicates with one another. Front-end is the part of an app users see and interact with. Buttons, screens, forms, these are all part of the front end. These are also connected to the terms UI and UX, user interface, and user experience. Back-end is the part running behind the scenes. The server, data, and logic. This is where all your AI calls happen. And the results get stored in a database. This data is then connected to the front-end to provide it to the user on the interface. Localhost is running your app on your own computer while you're in development with it. No one else can access it. It's just for you to test before you pull it live. Here you can test different features locally before you're ready to put it on the internet for other users to see. Our next section is going to be about using AI agents like OpenClaw. An agent is a fully autonomous system with its own personality, memory, tools, and schedule. It doesn't wait to be asked. It checks proactively, handles tasks in the background, and operates continuously. Skills are packaged abilities you install into an agent. Each skill adds something new. Search the web, read a calendar, post to GitHub, interact with Solana. Memories are how agents remember a client. Memories are how agents remember a client. Memories are how agents remember a client. Memories are how agents remember a client. Memories live in files that the agent reads at every startup, so it knows who you are and what you've been working on. It can use tools to recall these memories. A heartbeat is an automatic check-in the agent does on its own. It wakes up periodically, looks for anything that needs attention or any pre-written tasks, and either acts or goes quiet. A crone job is a task scheduled to run on a computer. It can run at a specific time every day. 9 a.m. every weekday posts the report. It runs automatically with no conversation needed once it's set up. A sub-agent is when one agent creates another to handle a task in parallel. The main agent keeps talking with you while the sub-agent works in the background. A session is a single conversation thread. Your agent can run multiple sessions at once. Your agent can run multiple sessions at once. agent can run multiple sessions at one. One for a general topic, one for a specific project, and one for a background task. Gateway is the always running background task that keeps your agent alive. It handles incoming message, runs scheduled tasks, and routes everything correctly. No gateway, no agent. A hallucination is when an AI confidently states something that just isn't true. It doesn't know that it's wrong. Here, I asked my agent to summarize the contents of this file, which it claimed didn't exist, even though it was clearly in its directory. So those were the 20 terms you need to know to get started with AI coding and AI agents. Now it's time to build. If you like this video, please leave a like, please leave a comment, and subscribe, as on this channel we build and experiment with a lot of AI tools and agents. And dive deeper into the world of AI. Thank you for watching.