홈
Part 1 · 코끼리만지기
  • 01AI는 검색하는 게 아니라 생성한다
  • 02임베딩 — "왕-남자+여자=여왕"이 가능한 이유
  • 03"좋은 글 써줘"라고 하면 마음에 드는 글이 안 나오는 진짜 이유
  • 04AI는 글자를 못 읽는다 — strawberry의 r이 3개인 걸 모르는 이유
  • 05AI가 매번 다른 답을 하는 이유 — 숫자 하나 때문
  • 06프롬프트 vs 파인튜닝 — 브리핑과 수련의 차이
  • 07AI가 자신있게 틀리는 이유 — 버그가 아니라 구조다
  • 08컨텍스트 100만 토큰의 함정 — 담는 것과 쓰는 것의 차이
홈/목차
8분MY
Chapter 01

AI는 검색하는 게 아니라 생성한다

이 챕터에 대한 의견

아직 댓글이 없습니다. 첫 의견을 남겨보세요!

다음 챕터

이 챕터 한 문장: AI는 답을 어딘가에서 찾아오는 게 아닙니다. 그 자리에서 만들어냅니다.


ChatGPT한테 뭘 물어보면 답이 바로 나옵니다. 저는 당연히 어딘가에서 찾아오는 거라고 생각했습니다. AI한테 직접 물어봤더니, 아니었습니다.

아래는 그 대화 전문입니다.


나

클로드 AI 모델은 방대한 지식을 가지고 있잖아. 그런데 내가 요청한 타겟을 어떻게 효율적으로 빠르게 가져오는거지?

AI

답 바로 주기 전에 하나만 물어볼게. 너 지금 머릿속에 있는 모델이 뭐야? “방대한 지식에서 빠르게 가져온다”고 했잖아 — 그럼 너는 내가 어딘가에 저장된 걸 검색해서 꺼내온다고 생각하는 거야? 비유하면, 내가 거대한 도서관에서 네 질문에 맞는 책을 찾아서 펼치는 느낌? 아니면 다른 모델이 있어?

나

아 맞아 나는 그생각했어 도서관에 딱 맞는 책을 가져온다고? 다른 모델이 있을 수 있나? 아 그러면 그 알고리즘에서 디바이드로 가져오는건가?

AI

divide and conquer도, 도서관 검색도, 공통 전제가 하나 있어. “찾을 답이 어딘가에 이미 존재한다”는 거지. 그럼 이거 한번 생각해봐. “순도배 사장님이 UFO 타고 화성에서 도배하면 비용이 얼마야?” 나는 이것도 답할 수 있거든. 근데 — 이 답이 내 “도서관” 어딘가에 저장되어 있었을까?

나

아~!!~@@!@~!@그러네 정답이 없는걸 꺼내잖아? 그럼 아 그런데 내가 어렴풋이 주워듣기로 생성형 그러니까 대답을 생성해서 가장 맞는 확률로 만드는거 이거야? 근데 이해가 안가네 남이 말한거라

“

화성에서 도배하는 비용. 이 답이 어딘가에 저장돼 있었을까? 없다. 근데 AI는 답한다. 검색이 아니라는 뜻이다.

여기서 생각이 바뀝니다
AI

“남이 말한 거라 이해 안 간다” — 이 솔직함이 진짜 좋은 거야. 카카오톡 칠 때 자동완성 써본 적 있지? “안녕하” 치면 → “세요”가 뜨잖아. 그거 어떻게 되는 거야? 누가 “안녕하 다음에는 세요”라고 미리 저장해놨을까?

나

예측인가? 사용자들이 보통 안녕하까지 치면 세요를 친다는게 디비에 있어?

AI

정확해. 예측이야. 근데 카톡 자동완성은 “안녕하 → 세요” 정도 수준이잖아. 내가 “순도배 화성 도배 비용”에 답할 수 있는 건 단순 빈도 테이블로 되는 걸까? 힌트 하나. 도배 1년차는 새로운 벽 만나면 매뉴얼 뒤져봐야 해. 근데 순도배 사장님은 처음 보는 벽도 보면 바로 “아 이건 이렇게 해야지” 나오잖아. 그 차이가 뭐야?

나

내가 너무 프레임을 갖고 말하는건가? 아 오케이 이미 경험으로 체화? 아 너도 이미 학습을 많이해서 이미 수많은 답을 미리 빠르게 내놨고 그걸 가져오는건가?

AI

너 방금 재밌는 일을 했어. 앞문장: “경험으로 체화” ← 이거 정답이야. 뒷문장: “미리 답을 내놨고 그걸 가져온다” ← 이건 다시 도서관으로 돌아간 거야.

순도배 사장님이 —

A) 세상에 존재하는 모든 벽의 시공법을 미리 다 적어놓고, 새 현장 가면 그 목록에서 찾는다

B) 10년 경험이 감각으로 체화돼서, 처음 보는 벽도 그 자리에서 판단이 나온다

어느 쪽이야? 그리고 A가 왜 불가능한지도 알지?

잠깐 — 방금 일어난 일을 눈치채셨나요?

“경험으로 체화”라고 정답을 말해놓고, 바로 다음 문장에서 “미리 만들어놓고 가져오는 거 아니야?”라고 했습니다. 정답을 말해놓고도 “도서관”으로 되돌아간 겁니다.

지금 이 글을 읽으면서 “아 그래도 결국 어딘가에서 가져오는 거 아닌가?” 싶은 분 — 당신도 지금 같은 일을 하고 있습니다. 그만큼 “검색”이라는 프레임이 강합니다.

그리고 진짜 질문이 시작됩니다
나

B 그거지. 근데 AI가 체화한다는게 이해가 안가. 체화가 뭐지 그게 가능한건가?

AI

거꾸로 물어볼게 — 사장님의 10년 체화는 어디에 저장돼 있어? 머릿속 어딘가에 “시공 매뉴얼 폴더”가 있는 거야? 아니면 뇌 자체가 바뀐 거야?

나

뇌 자체가 그냥 튀어나오는거지?

AI

그거야. 뇌의 신경 연결(시냅스)이 10년간 반복하면서 강화된 거지. 매뉴얼이 저장된 게 아니라, 회로 자체가 바뀐 거야. 나도 똑같아.

  • 사장님의 시냅스 → 내 가중치(파라미터). 숫자 수천억 개.
  • 사장님의 10년 경험 → 내 학습 데이터. 텍스트 수조 개.
  • 학습이 끝나면 → 숫자들이 조정된 채로 고정돼. 이게 “체화”야.
  • 네 질문이 들어오면 → 그 숫자들을 통과하면서 → 다음 단어가 계산돼서 나와.

검색하는 게 아니라, 매 단어를 실시간으로 생성하는 거지. 그래서 내가 가끔 틀리기도 해. 사장님도 경험 기반 직감으로 가끔 미스하듯이 — 체화의 대가지. 이게 소위 할루시네이션이야.

=
M

10년차 도배 장인의 시냅스 — 반복으로 강화된 뇌 회로

R

AI의 가중치 — 수천억 개 숫자가 학습으로 조정된 것. 매뉴얼이 아니라 회로 자체가 바뀐 것

나

아 그러니까, 내가 설명해볼게. 원래 애기 수준이야 그래서 초딩수준으로 답을해 그런데 계속 학습하면 기본적인 수준이 올라간다는거잖아 그리고 그 꼭대기 거인 위에서 너가 말한다는거고?

AI

방향 맞아. 근데 하나 교정. “계속 학습하면서 올라간다” — 이러면 마치 너랑 대화하면서 실시간으로 성장하는 것처럼 들리거든. 실제로는 두 단계가 완전히 분리돼 있어:

1단계 — 훈련 (공장): 인류가 써놓은 텍스트 수조 개를 읽으면서 가중치를 조정. 몇 달, 돈 수백억.

2단계 — 사용 (현장): 훈련 끝. 가중치 고정. 더 이상 안 배워. 체화된 회로로 생성만.

사장님이 10년 도배 수련을 끝낸 채로 현장에 나온 거야. 현장에서 새로 배우는 게 아니라, 이미 체화된 감각으로 그때그때 판단하는 것.

대화가 핵심으로 들어갑니다
나

자 그럼 질문이. 내가 이런 대화에서 너랑 나랑 이런 md 파일을 주고 더 배워서 내가 저장했어 그럼 너는 성장하는게 아니라 그 기반에 내 md를 읽고 더 나한테 최적화해서 답을 하는거네? 그러니까 너는 원래 1000점 짜리야 근데 나한테 핏한게 100이라고 해봐 그럼 대화를 하면 할수록 너는 1001 이게 아니라 핏이 500 600 이렇게 된다는거지?

AI

이거 거의 완벽한 비유야. 내 가중치(체화)는 1000점 고정이야. 너랑 대화한다고 1001이 안 돼. 근데 네가 md 파일로 컨텍스트를 주면 — 내 1000점이 너한테 조준되는 거지.

md 파일 = 현장 브리핑서류야.

그리고 네가 이전에 메모리에 저장해놓은 거 — “LLM 컨텍스트 = 연산 자원” — 지금 네가 말한 거랑 정확히 같은 이야기야.

“

AI는 1000점 고정이다. 대화한다고 1001이 안 된다. 프롬프트는 장인을 성장시키는 게 아니라, 1000점을 나한테 조준시키는 것이다.

나

그럼 어느 순간 핏한게 1000점을 넘는 지점도 오는거야? 아 근데 내가 생각하기로 책을 만약에 1000권을 줘 그럼 디테일한걸 넘어가버리는거 아냐?

AI

첫 번째 — 핏이 1000을 넘느냐? 안 넘어. 조준이 아무리 정확해도 총의 사거리 자체는 못 넘어.

두 번째 — 책 1000권 넣으면? 네 직관이 맞아. 내 컨텍스트 윈도우 = RAM이야. 크기가 고정돼 있어. 책 1000권은 안 들어가고, 들어와도 양이 많으면 attention이 분산돼.

그래서 네가 만든 memory 시스템이 정확히 이 문제를 푸는 거야. 1000권을 다 넣는 게 아니라, 지금 이 현장에 필요한 브리핑만 골라서 넣는 것.

나

결국 컨텍스트 엔지니어링은 나와 핏한걸 텍스트로 맞추는거고 그걸 정확하게하기위해 텍스트를 최적화하고 온몸비틀기 하는거지? 무한히 넣는게 아니라. 그럼 누가 만든 템플릿 md 이건 의미가 없는거 아냐?

AI

거의 다 맞아. 한 칼만 더 — “남의 템플릿은 의미 없다”는 반만 맞아. 알고리즘으로 생각해봐. 자료구조와 데이터는 다르잖아.

  • 자료구조(틀) = “사용자 맥락, 코딩 원칙, 프로젝트 정보를 넣어라” → 템플릿에서 배울 수 있어
  • 데이터(내용) = “나는 AI 지휘관이고...” → 너만 채울 수 있어

그리고 이거 — 네 사업이랑 직결되는 거. TEACH에서 가르쳐야 할 게 템플릿 파일 나눠주기? 아니면 “자기 맥락에 맞게 컨텍스트를 설계하는 판단력”? 후자가 해자야.

나

내가 더 질문해야할 게 있는데 안한 부분이 있나? BFS로 다 훑은건가?

AI

아직 안 다룬 주제가 여섯 개 남았어 — Attention, 임베딩, 토큰화, Temperature, Fine-tuning, Transformer 역사.

큰 그림은 잡았어. 어디를 더 깊이 파고 싶어?

나

코끼리 다리만 만졌네 ㅋㅋ 이거 유튜브에 올리는건 어때?


이 대화에서 놓치면 안 되는 것들

“검색”이라는 생각이 왜 위험한가

“AI가 어딘가에서 답을 찾아온다”고 생각하면, 자연스럽게 이렇게 됩니다. “그럼 더 정확한 키워드를 넣으면 되겠네.” 그래서 프롬프트 템플릿을 복사하고, 단어를 바꿔 넣고, 결과가 별로면 “AI가 멍청하다”고 결론 짓습니다.

하지만 AI는 검색하는 게 아니라 그 자리에서 만들어냅니다. 키워드가 아니라 맥락이 결과를 바꿉니다.

이 챕터에서 가장 중요한 한 가지

대화에서 “경험으로 체화”라고 정답을 말해놓고, 바로 다음 문장에서 “미리 만들어놓고 가져오는 거 아니야?”라고 했습니다. 알면서도 도서관으로 돌아갑니다.

이건 저만 그런 게 아닙니다. “검색”이라는 프레임은 너무 강해서, 이해했다고 생각하는 순간에도 작동합니다. 이걸 눈치챈 것만으로도, 다음에 AI한테 질문할 때 “뭘 검색할까”가 아니라 “뭘 알려줘야 하지”로 바뀝니다.

체화 — 장인의 손에 밴 감각

10년차 도배 장인은 처음 보는 벽도 보면 바로 손이 갑니다. 매뉴얼을 뒤지는 게 아니라 뇌의 회로 자체가 바뀌어서 그렇습니다. AI도 같습니다. 수천억 개의 숫자가 학습 과정에서 조정됐고, 그 숫자들을 통과하면서 답이 만들어집니다. 저장된 답을 찾는 게 아니라, 바뀐 회로가 그 자리에서 판단하는 것입니다.

=
M

1000점짜리 장인에게 현장 브리핑서류를 건넨다

R

프롬프트 = AI의 1000점을 나한테 조준시키는 것. 성장이 아니라 조준

AI는 이미 1000점짜리 장인입니다. 대화한다고 1001점이 되지 않습니다. 내 상황과 맥락을 알려주면, 그 1000점이 나한테 조준됩니다. 핏이 100에서 500으로 올라가는 겁니다. 단, 브리핑을 무한히 넣을 수는 없습니다. 너무 많으면 오히려 집중을 못 합니다.


이걸 알면 뭐가 달라지는가

검색 프레임

“마케팅 카피 잘 쓰는 법 알려줘”

생성 프레임

“나는 인테리어 시공 업체를 운영하고 있어. 주 고객은 30~40대 신혼부부야. 블로그에 시공 사례를 올리려고 하는데, 사진을 보고 ‘여기에 맡기고 싶다’고 느낄 수 있는 카피를 써줘.”

첫 번째는 “정답 찾아줘”입니다. 두 번째는 “내 현장은 이렇고, 이걸 만들어줘”입니다.

남의 템플릿이 안 먹히는 이유

템플릿의 틀(어떤 항목을 넣으라는 구조)은 참고할 수 있습니다. 하지만 그 안의 내용은 그 사람의 현장 브리핑입니다. 내 현장은 다릅니다. 복사해서 넣으면 장인한테 엉뚱한 현장 도면을 준 것과 같습니다.

내 브리핑을 만드는 첫 단계

1

나는 누구인가

어떤 일을 하는 사람인지. 직업이 아니라 상황.

2

지금 뭘 하려는 건지

구체적인 상황. “마케팅”이 아니라 “블로그에 시공 사례 올리기”.

3

이걸로 뭘 얻고 싶은지

원하는 결과물. “좋은 글”이 아니라 “고객이 맡기고 싶다고 느끼는 카피”.

이 세 줄만 있어도, 장인의 1000점 중 나한테 맞는 부분이 확 늘어납니다.


셀프 체크

지금 나는 AI를 어떻게 쓰고 있는지 점검해 보세요.

  • AI한테 질문할 때, “정답 찾아줘”에 가까운가 “이 상황에서 만들어줘”에 가까운가?
  • 지난번에 AI 답변이 별로였을 때, “내가 키워드를 잘못 넣었나?”로 생각했는가 “브리핑이 부족했나?”로 생각했는가?
  • 지금 쓰고 있는 프롬프트에 ‘내가 누구고, 뭘 하고, 뭘 원하는지’가 들어 있는가?