AI Frontier

EP 94

Anthropic과 낮게 열린 과실들

· 노정석, 최승준 · 1:02:17
페이지 전체

2주간 쏟아진 AI 소식 훑어보기 00:00

00:00 노정석 녹화를 하고 있는 오늘은 2026년 4월 19일, 일요일 아침입니다. 저희가 2주 만에 녹화를 하는데요. 한 주를 건너뛰었습니다. 그 2주 동안 정말 너무 많은 소식이 쏟아졌거든요.

00:16 저희 지난 에피소드가 Claude Code 유출과 관련한 일이었는데요. 사실 2주 동안에 일어난 그다음 이야기들을 보면 Claude는 아무런 타격이 없다, 바쁘다. 그리고 사실 그 의견이 조금 양분돼 있었잖아요. 도덕적으로 문제가 있다, 새로운 세상이다, 이렇게 했는데 Anthropic이 지난 2주간 보여준 행보를 보면 자기네들도 밖에 있는 것들을 다 안으로 많이 들였어요.

00:43 딸깍딸깍하면서 모델의 힘을 들여서 Claude Design도 밖에서 많이 보던 서비스들이 그대로 안에 영입된 걸 볼 수 있고 오늘 또 아무래도 그래도 중력이 있는 서비스다 보니까 Anthropic의 발표 위주, Mythos부터 해서 Opus 4.7, 그다음에 Claude Design, 또 그사이에 Codex도 앱을 내놨고 그리고 GPT-Rosalind도 있었고 그사이에 또 생명공학이라든지 재료공학, 화학, 물리, 수학 이런 쪽도 굉장히 많은 소식들이 있었습니다.

01:21 한번 지난 2주 동안 있었던 일들을 너무 많기 때문에 저희가 다 깊게 살펴볼 수는 없고 주마간산 형태로 가면서 저희의 해석을 붙여보도록 하겠습니다.

01:33 최승준 한번 이게 너무 많아서 그냥 주마간산으로 얇게 얇게 봐야 될 것 같긴 하고 또 자료가 많다 보니까 이게 머릿속에 컨텍스트가 다 로딩이 돼 있지 않거든요. 로딩이 돼 있지만 섞여 있어서 정확하지 않을 수도 있습니다.

01:48 노정석 저희가 이제는 한 달이 1년 같은 세상을 살고 있다고 생각이 들고, 뭐죠? 저희가 이제는 1개월을 1년으로 봐야 된다, 이런 얘기들을 하고 있는데 2주라고 하면 반년이잖아요. 그야말로 반년의 임팩트예요.

02:01 최승준 뭐가 너무 많아. 하여튼 한번 가보겠습니다.

02:03 노정석 한번 시작해 보시죠.

70일 주기로 빨라지는 모델 릴리스 02:06

02:06 최승준 제가 위키백과에 모델 릴리스 간격이 잘 나와 있길래 그거를 시각화해 봤어요. Opus가 지금 이 보라색 가까운 쪽으로 되어 있는데 여기가 2020, 아마 여기가 보면 5년부터는 이 간격이 한 70일 정도거든요. 여기가 한 100일 정도, 70일 간격으로 지금 Opus 4가 5월 22일이었어요. 그리고 4.1은 8월 5일, 4.5는 11월이었죠. 그리고 4.6은 2월 5일, 며칠 전이었죠. Opus 4.7.

02:42 노정석 계속 좁아지고 있네요.

02:47 최승준 근데 얼추 이 간격을 평균 내면 대략 한 70일 간격마다 모델이 나온다고 봐야 돼요.

02:53 노정석 그리고 또 이 점에서 이 Opus와 Sonnet과 Haiku의 분포에서 읽을 수 있는 직관적인 점은 사람들의 수요가 다 Opus에 몰리고 있다는 걸 보여주거든요. 초창기만 하더라도 Sonnet과 Haiku의 런칭 간격은 계속 넓어지고 있고요. Sonnet의 런칭 간격도 넓어지고 있고 Opus는 계속 좁아지고 있고.

03:13 최승준 아, 이거는 Mythos입니다. 이거는 기타라서.

03:15 노정석 걔는 이제 걔가 또 좁아지는, 위로 올라가겠죠.

03:20 최승준 위로 올라가죠. 새로운 티어로 가면.

03:21 노정석 원래 고급 모델은 조금 쓰고 Sonnet 같은 걸 작업에 많이 쓰는 형태가 될 줄 알았는데 사람들은 항상 최고의 모델을 좋아한다. 그렇죠. 또 그사이에 Opus 품질 저하 사건도 한참 이슈가 있었는데, 그거는.

03:43 최승준 근데 그게 징조같이 사람들이 봤죠. 왜냐하면 새로운 모델 출시 즈음에 뭔가 지금 러프해지거나 조정이 있다. 근데 지금 그 패턴이 맞아 들어가고 있거든요. 뭔가 안 되면 그다음에 뭔가가 나오는 그런 패턴들이 있고요. 근데 여기서 70일 간격 떨어지면 6월 말이에요. 그러니까 6월 말, 7월 초 그즈음이 되면

04:01 노정석 또 다음 모델이 나오겠죠.

04:03 최승준 그래서 한 70일 뒤에 또 새 모델이 나오면, 근데 그런 패턴을 우리가 생각해 보면 새 모델 나오면 한 변화가 있을 거고 그다음에 기존의 프롬프트들에서 더 잘 작동하는 부분, 안 작동하는 부분, 이거 조정하는 것도 필요하고 해서 계속 일거리가 한 70일마다 생긴다고 봐야 되지 않을까요?

04:23 노정석 지수함수적으로 발전을 하고 있네요. 눈덩이 구르듯 구르고 있어요.

04:32 최승준 근데 이제 이 주기로, 이 간격으로 계속 피곤한 일들이 있다. 계속 있는 것들 한 번 이렇게 리팩토링하고 개편하고 그러는 작업들을 해야 되는구나가 이번에 느낀 감각이고요. 그다음에 이거는 좀 성기게 봤잖아요.

Claude Code 업데이트와 Anthropic의 집중 전략 04:41

04:43 노정석 더 촘촘하게 한번 볼까요?

04:46 최승준 이게 뭐냐 하면 주요 사건들을 시각화해 놓은 거예요. Claude Code 쪽은 대강대강 보는 거에서도 많네요. 근데 촘촘히 보면 되게 많습니다. 이게 며칠 상관으로 계속 업데이트가 있기 때문에 가장 최근에 네이티브 바이너리로 해서 이거 예고했던 거긴 한데 사실 이게 여기에 쭉 changelog가 공개가 돼 있어서 여기 보면 굉장히 높은 밀도로 뭔가 계속 바뀌고 있습니다. 피곤합니다. 새로운 명령, 슬래시 명령어들 나오고 있고 이거를 익히는 것도 만만치 않은 일인 것 같아요.

05:23 노정석 이 네이티브 바이너리가 됐다는 얘기는 이젠 TypeScript가, TypeScript는 맞죠? 여전히.

05:33 최승준 그건 어떻게 하는지는 모르겠는데 아마 맞을 거예요. 근데 어쨌든 그거를 이제 패키징을 npm으로 안 하는 거죠.

05:36 노정석 이제 바이너리 형태로 아예 묶어서 자기네들이 런타임과 함께 배포하는 거라고 보면 되겠네요.

05:42 최승준 그래서 그런 Claude Code가 사실 빈도가 제일 작고, 앱이라든가 이렇게 API 상황에서의 변화, 그리고 엔지니어링 블로그 되게 많아요. 요새는 또 레드팀도 포스팅을 많이 하는데 Mythos라든가, 이번에 Mythos 발표할 때 Nicholas Carlini라고 보안 쪽에서 굉장히 유명한 분이 계신데 그분이 한 얘기가 또 재조명되고 있고 이거 제로데이 찾고 그런 것들이 2월쯤. 이게 지금 2026년만 본 거예요. 2026년만 본 건데, 밀도의 변화로 봤을 때는 비슷하게 유지가 되는 것 같으면서 또 뭐가 더 많아지는 느낌도 있네요. 그러니까 이 Claude 세계관에서만도 어마어마하게 지금 많은 4월, 그러니까 지금 벌써 쿼터죠. 1분기, 그 정도의 이만큼의 이벤트들이 있었던 거죠.

06:35 노정석 Anthropic이 참 잘한 것 같긴 해요. 그냥 명확하게 텍스트와 코딩에만 완전히 집중하고 그다음에 B2B 유스 케이스로 애플리케이션들을 깔면서 깔끔하게 조합해 나가기 시작한 거. 그게 Claude Code였고 그 코딩 에이전트가 너무너무 중요하다는 거를 이제 OpenAI는 살짝 뒤늦게 따라오기 시작했고 Google은 아직은 좀 헬렐레한 것 같아요.

06:57 최승준 Google이 작년 이맘때에는 2.5 때문에 위상이 상당히 올라갔었고 I/O 직전에 발표를 했었거든요. 했어서 이슈가 없는데

07:05 노정석 그리고 사실 Google Antigravity 나올 때만 하더라도 이제 와, 이건 또 뭐 제대로 해보려나 보다라고 했는데.

07:14 최승준 11월 정도의 상황이었는데 지금 세상이, 지금 어쨌든 그 이벤트를 선점하고 있는 거는 Anthropic이 너무 자명해 보이고.

07:22 노정석 근데 그렇긴 한데 Google 같은 경우에는 저도 한참 거듭 말씀을 드렸지만 거기는 이 코딩이나 B2B 엔터프라이즈 이런 쪽의 문제가 뭔가 인류를 구원할 정도의 문제라고 보고 있지 않은 것 같아요.

07:36 최승준 Isomorphic Labs라든지 사이언스라든지 알파 시리즈 쪽에.

07:41 노정석 훨씬 더 많은 웨이트가 걸려 있어서 Demis도 인터뷰하면 여전히 다 그런 쪽 이야기를 하지, 코딩 툴이 어떻게 진화해야 된다, 이런 얘기는 거의 안 하거든요.

07:50 최승준 그래서 Google이 이 레이스에서 뒤처질 거니까 Google DeepMind가 뒤처질 거라고는 거의들 생각은 안 할 거라고 보긴 하는데요. 근데 지금 이슈에는 참여를 많이 못하고 있다. 근데 Google의 관심사는 그게 아닐 수도 있고 또 I/O가 5월 19일, 20일인가 그 정도인 것 같은데, 그때는 또 온갖 서비스들에 융합된 걸 아마 발표하겠죠. 모르긴 몰라도. 하여튼 그리고 이번 주까지가 Anthropic의 턴이었다면 다음 주는 이제 다른 곳들의 턴 아니겠습니까? 뭔지 몰라도.

GPT-5.5 루머에서 Mythos로 이어지는 흐름 08:24

08:24 노정석 OpenAI GPT-5.5 나온다고 소문이 좀 돌더라고요.

08:28 최승준 Spud라는 코드명을 가지고 그런 얘기들도 있고.

08:37 노정석 썰은 분분한데 5.5가 Mythos급의 모델이다. Spud가 Mythos급의 모델이다라는 얘기도 있는 것 같아요. 전 확인은 정확하게는 못합니다. 썰입니다.

08:44 최승준 그러면 Mythos 얘기부터 좀 할까요?

08:48 노정석 이제 이야기가 자연스럽게 나왔으니까. 사실 Anthropic이 Mythos가 사이버 보안 능력 때문에 이거는 런칭하기가 어렵다고 이렇게 소위 밑장을 깔고 홍보를 하고, 그사이에 Opus 4.7을 내놨는데 여기에 대해서도 사람들의 의견이 갈려요. Mythos를 프로덕션을 못 하는 이유는 Anthropic이 지금 컴퓨팅 자원이 Google, OpenAI, Anthropic 3사 중에서 가장 달리거든요. 그리고 신정규 대표님도 이런 쪽 상황에 숫자들을 많이 보시는 분이신데 Anthropic이 작년도에 원래 GPU 확보하는 것들이 잘 못했다. 그래서 계속 쇼티지가 나고 있다. 그것 때문에 계속 영향을 받을 거라는 말씀을 주셨는데 그래서 못 내놓는다는 얘기도 굉장히 많이 들려요. Twitter 같은 데서는, X에서는.

09:39 최승준 근데 또 얘기로는 지금 이번에 Dwarkesh, Jensen Huang 인터뷰에서도 보면 Dwarkesh가 Jensen Huang을 엄청 밀어붙였는데 지금 Anthropic이 상당한 기대주인데 거기는 GPU 의존도가 떨어지고 AWS에 뭐였죠? Trainium하고 TPU 쪽으로 많이 포션을 주지 않았느냐. 당신들의 전략은 뭐냐. 아마 그런 식으로 밀어붙인 것 같긴 한데요. 지금 트레이닝 자원과 inference 자원 모두 Anthropic은 NVIDIA 의존도를 조금 줄여가고 있는 거 아닌가요?

10:07 노정석 다 전략적 선택인데, 저희가 이 타임프레임이 하드웨어의 타임프레임은 적어도 2, 3년의 리드 타임을 가지고 돌아가는 영역인데 소프트웨어는 지금 보시다시피 60일, 70일 단위니까 그 두 개의 미스매치 때문에 생기는 것 같아요. Anthropic도 어쨌거나 NVIDIA 생태계를 탈출하고 싶은 인센티브는 당연히 있을 테니까요. 그것들이 이제 전략적으로 중첩되는 시기이기 때문에 그런 현상이 보이는 거 아닐까요?

Mythos 10T 스케일과 출시 지연 논란 10:35

10:35 최승준 근데 소문에 의하면 지금 Mythos는 10T잖아요.

10:41 노정석 Mythos의 크기가 10T, 세기도 힘드네요. 10T, 그렇죠.

10:49 최승준 그러니까 10T면 인간 뇌가 1,700억 개 정도라니까 10분의 1 정도 수준인가요?

11:00 노정석 맞아요. 인간의 뇌가 뉴런의 개수가 100B, hundred billion이고요. billion, 10억 곱하기 100만큼 있는 거고 그게 천 배씩, 한 뉴런당 이론상 천 개 정도의 시냅틱 커넥션이 존재한다고 하니까 100T죠. 인간의 뇌가 풀로 다 시냅스 연결을 했을 경우에는 100T인데, 절대 100T 안 되죠. 굉장히 성기게 연결되어 있거든요. 나이 들수록 계속 소위 프루닝도 이루어지기 때문에 100T는 절대 안 될 텐데 이론상 인간의 뇌가 가질 수 있는 캐파의, 맥시멈 캐파의 10분의 1이 온 거죠.

11:44 최승준 그러니까요. 그래서 지금 사람들이 보안 관련된 문제 때문에 한 50개 기관에 먼저 얼리 액세스를 주고서는 이거는 서빙하기도 어렵고 지금 상황을 좀 보고 있는 것 같다는 느낌으로 이슈가 많이 됐고, 사람들의 불안감을 조장했죠.

11:57 노정석 Anthropic이 마케팅적으로는 홈런이죠.

12:00 최승준 그러니까 이게 지금 IPO marketing이라는 얘기도 좀 있잖아요.

12:06 노정석 그리고 IPO 할 때까지는 Anthropic이 그렇게 오버하는 것들 좀 봐줘야 된다는 인식도 있다는 말씀도 여기저기서 좀 들었고요. 어쨌건 그냥 재밌는 얘기로는 사람을 속여서 그 샌드박스를 탈출했더라, 이런 이야기 있었던 것 같고.

도구 조합 능력과 사이버보안 이슈 12:22

12:23 최승준 근데 제가 주목한 거는 Simon Willison도 그거에 주목을 했는데 Nicholas Carlini가 한 이야기에 저도 좀 주목을 했어요. 거기서 무슨 얘기했냐 하면 보안 쪽의 능력이 강한 게, 이미 있는 도구들을 잘 조합하는 능력이 뛰어나다는 뉘앙스로 얘기를 좀 한 게 있거든요. 그래서 이게 완전히 다른 차원의 뭔가라기보다는 코딩을 잘하는 모델로 계속 가다 보니까 자연스럽게 이런 제로데이를 찾을 정도의 능력, 그리고 그거를 분석하고 조합하는 능력까지 black hat으로도 쓸 수도 있고 white hat으로도 쓸 수 있는 그런 능력을 가지게 된 상태에 대한 경각심이 좀 있는 상황인 것 같습니다.

13:02 노정석 그러니까 제가 30년 전에 해커 출신으로서 해킹이라는 행위 자체가 이렇게 존재하는 수많은 어떤 노드들, 그 사이의 연결들에 대해서 굉장히 다양한 실험들을 할 수 있어야 되거든요. 취약점이라는 거는 그 연결 사이에서 탄생하기 때문에 어떤 것과 어떤 것들을 이렇게 단품들을 이해하는 게 아니라 그것들이 결합됐을 때 나오는 어떤 창발적 현상에 대한 많은 암묵지스러운 사고를 필요로 하거든요.

13:38 최승준 그런데 그게 모델이 문헌 조사 같은 거를 잘해서 인간은 예를 들면 정확한 예는 아니지만 수학의 정수론, 수론을 하다가 또 위상수학을 하기를 기피하는 게 사실 같은 수학이라도 굉장히 멀 수 있다고 하는데 그런 걸 모델들은 연결해 낼 수 있는, 둘 다 잘하니까 할 수 있는 그런 상황이 되는 거죠.

13:57 노정석 그렇죠. 다 하는 거죠. 그리고 저희가 항상 에피소드마다 얘기를 하는 거지만 이 삼라만상의 지식이라는 이런 배포가 있는데 인간은 다 다룰 수 없지만 얘들은 우리랑 다른 시간과 리소스를 쓰니까 다 찾아내는 거겠죠.

14:15 최승준 그렇죠. 모델이 아직 스스로는 그거를 못하지만 사람이 질문을 던지면 문헌을 잘 찾는 것만으로도 low-hanging fruit, 낮은 과실들을 따는 게 수학이나 과학 쪽에서 지금 일어나고 있는, 보안도 마찬가지인 것 같습니다.

Capability Overhang과 능력을 꺼내 쓰는 사람들 14:26

14:28 노정석 그러니까 저희가 생명공학이나 화학이나 이런 굉장히 어려운 학문 쪽에서 일어나는 일도 그렇고, 그다음에 우리가 수많은 서비스들을 딸깍거리는 것도 그렇고, 지금 일어나는 모든 일들의 본질을 보면 사람의 기여분이 거의 없어요. 대부분 다 모델이 이미 가지고 있을 거라고 추정하는 모델의 과잉 능력, 저희가 항상 얘기하는 capability overhang이란 말을 많이 하잖아요. 그 능력을 누가 빨리 잘 꺼내 쓰느냐의 지금 싸움이거든요.

Opus 4.7의 Adaptive Thinking과 Tokenizer 변화 15:00

15:00 최승준 그런데 능력이 들쭉날쭉은 한 것 같아요. 그래서 저도 4.7 나오고서는 실험을 해봤는데 그 유명한 거 있잖아요. 세차장 가는 데 100피트 거리 떨어져 있는데 차 가져갈 거냐, 걸어갈 거냐죠. 그런데 4.7이 adaptive thinking이라는 거를 웹에서는 내놨습니다.

15:12 그거를 가지고서는 좀 문제가 되고 있는데 왜냐하면 4.6까지는 추론을 항상 고정해 놓을 수 있었는데 지금은 GPT-5 나왔을 때처럼 adaptive로 해서, 그런데 또 라우터는 아니래요.

15:30 그런데 어쨌든 그거를 항상 thinking 모드가 되지 않을 거를 모델이 알아서 하다 보니까, 그 주차장 가는 거를 thinking을 안 켜고 하면 당연히 걸어가야 된다라고, thinking을 켜고, Ultrathink, 이런 거를 프롬프트에 넣어주면 당연히 차 가지고 가야 된다, 그런 식으로 하더라고요.

15:45 노정석 그래도 그런 adaptive 같은 거를 계속 넣는다는 얘기는 트래픽에 대한 부담이 있다는 거고, 그리고 아는 사람들은 thinking을 디폴트로 다 켜고 하겠지만, 저희가 Codex를 쓰든 Claude Code를 쓰든 사람들 다 thinking 레벨 상당히 높여놓고 쓰시잖아요.

16:02 최승준 그런데 웹에서는 그걸 못 하게 돼 버린 거예요. Claude Code에서만 thinking을 default로 고정할 수 있지, 웹 인터페이스는 그 자원 배치를 한 것 같은 느낌. 부족한 거죠.

16:16 노정석 step by step이라는 걸 또 프롬프트에 넣어줘야 되겠네요.

16:19 최승준 그런데 그래도 안 켜질 때가 있더라고요.

16:25 노정석 그러면 자연스럽게 저희 Mythos 얘기를 살짝 마무리하고 4.7로 넘어가면 될 것 같은데, Mythos도 어쨌건 나와서 쓰는 사람들이 있으니 얘도 어떻게든 나오긴 하겠죠.

16:38 최승준 4.7에 대해서 흥미로운 포인트는 tokenizer가 바뀌었어요.

16:39 노정석 tokenizer의 토큰 vocabulary 숫자가 줄어든 것 같아요.

16:44 최승준 오히려 줄어들었는데 비용은 상승한 그런.

16:47 노정석 그렇죠. vocabulary 숫자가 당연히 줄어들었으니까 예를 들어서 예전에 hello world 하면 hello world 2개 끊던 거를, he, llo 하고 끊고 해서 두 토큰으로 끊어지던 게 세 토큰 정도가 된 느낌이거든요.

17:03 최승준 그 tokenizer가 달라진다는 거는 이게 앞쪽에 embedding하고 뒤쪽에 LM head 쪽 embedding도 바뀌어야 되는 거고, 가운데는 그래도 보존할 수 있는 거죠.

17:14 노정석 이게 그냥 이론적으로 생각하면 tokenizer가 바뀌면 다 바뀌어야 된다고 할 수 있지만, 문제는 tokenizer의 토큰이 늘어날 때, 그런데 줄어들 때는 예를 들어서 뭐죠? hello에서 hello가 그냥 하나였다가 he랑 llo로 끊겼다면 그 he와 llo는 미리 있을 확률이 높거든요. 이 BPE의 특성상 그렇기 때문에 이미 존재하는 embedding이 있을 거예요. 그래서 tokenizer가 줄어드는 경우는 사실상 embedding의 문제나 LM head의 문제는 아예 없다고 봐도 무방하죠.

17:54 최승준 그러면 사람들이 이렇게 나오고서는 그거 가지고 타임라인에서 꽤 분분했는데, 이게 from scratch로 했냐, 아니면 중간에 continual pre-training으로, 저희가 보통 mid-training이라고 부르는 도메인 지식을 다 주입하는 형태로 했냐, 그거 가지고 여러 가지 추론을 하더라고요. 왜냐하면 리소스가 있으니까 혹시 distill 아니냐, 증류된 버전 아니냐, 그런 식으로 의견이 분분하거든요.

Mythos 학습 방식과 Knowledge Distillation 추정 18:15

18:15 노정석 그런데 from scratch일 확률은 거의 없다고 봐야 되겠죠. 그냥 CPT로 봐야 되는데 이게 문제는 그냥 기존에 있었던 뭐죠? Opus 라인에서 계속 발전된 그냥 continual pre-training이 된 거냐, 아니면 더 큰 모델에서 knowledge distillation, 저희가 KD라고 얘기하죠. 증류를 한 거냐라는 부분은 다를 수 있겠죠. 저희 단톡방에서 신정규 대표님은 얘네의 어떤 배포 라인이 과거에는 Opus, Sonnet, 그다음에 Haiku 다 각자의 어떤 라인에서 pre-training 시작해서 그냥 CPT, continual pre-training 하면서 내놓는 분기였다면 지금은 느낌상 하나의 big model, 예를 들어 그 big model을 Mythos라고 쳐보죠. 제일 뛰어난 모델에서 그냥 Opus급, Sonnet급, Haiku급으로 나눠서 그 knowledge distillation 형태로 해서 그냥 training 하는 것 같다고 말씀을 하신 것 같아요.

19:14 최승준 그렇군요. 그러니까 뭔가 이제 base model이 있고 거기에서 KD를 하는 세 가지 종류로 KD를 하는 그런 느낌인데, 이번에 4.7 system card에 리소스 언급이 되게 많아요. KD를 했다는 건 아니고 audit을 했다, 지금 뭔가 이렇게 감사, 그러니까 이렇게 참여를 하고 있는 형태로 이 system card에는 나오고 있어요.

19:39 노정석 그러면 knowledge distillation의 그냥 약간 순화된 표현일 가능성이 있을 것 같아요. 사실 knowledge distillation 하는 방법이 여러 가지가 있을 수 있는데 그냥 제가 아는 선에서만 한번 썰을 풀어보면, teacher model이, 저희가 prompt set이 준비돼 있다고 가정했을 때 제일 똑똑한 모델이 그 prompt들에서 정답지를 한 번 쓰면 그 정답지를 가지고 전통적인 pre-train 방식으로 one-hot vector를 만들어서 일단 모델의 아래, 좀 작은 모델을 훈련시켜버리는 거. 그게 한 단계가 있고, 두 번째로는 그럴 것 같아요. 그냥 one-hot vector로 training을 하는 게 아니라, log probability, 예를 들어서 big model의 logit이 사실은 그냥 하나의 단어를 얘기하는 게 아니라 여러 개의 단어에 대한 분포를 내잖아요. 그래서 일부러 temperature를 좀 높여서 모델이 분기할 수 있는 그런 다음 단계에 대한 어떤 logit에 대한 확률들을 다 꺼낸 다음에, 물론 다 꺼내면 vocabulary 숫자만큼 꺼내지니까 그건 너무 크고, 한 top-k에서 top 한 100 정도를 꺼낸다고 알고 있어요. 그래서 꺼내서 그 logit의 distribution을 학습시키는 방법이 있고, 거기에서 한 발 더 나아가면 뭐였더라.

20:58 거기에서 한 발 더 나아가면 뭐였더라. 그냥 student model이, 앞에까지 얘기한 거는 완전한 off-policy고, 그 big model에 있는 거를 증류하는 거고, 그렇게 되면 이 small model이 약간의 뭐라고 그래야 될까, 환경 적응도가 떨어지니까 어느 단계에 가면 무조건 on-policy로 돌리더라고요. 그래서 on-policy로 돌려서 작은 모델이 어떤 지정한 prompt에 대해서 자기가 답을 쓰게 하고, 그 똑같은 prompt에 대해서 그 big model이 따라가면서 확률 값들을 계속 봐주면서 작은 모델이 실수하는 부분들에 더 강한 시그널을 주는 형태로 보강을 하거든요. 그러면 얘가 보지 않았던 환경에 대해서도 적응하는, 마치 저희가 instruction fine-tune되듯이 이렇게 되는 이런 것들이 있어서, 만약에 그 model card에서도 좀 guide를 했다, 뭐 했다 나왔다면 세 번째 on-policy training을 하면서 그 teacher model이 강하게 engage를 했을 가능성이 높다고 봐야 되겠죠. 그런데 다 이게 요새 모델들이 구워지고 있는 방법론인 것 같아요.

22:03 최승준 중국도 다 그렇게 해 가지고 1월인가 2월인가 해서 한번 Anthropic이 쫙 막았잖아요.

22:09 노정석 그래서 이런 frontier lab들이 하는 것들, 저희는 이거를 직접 해 본 적도 없고 사실 배포되는 어떤 repo라든지 글이라든지 다른 사람들이 얘기하는 걸 가지고 이렇게 추정하는 건데, gap이 계속 벌어지는 것 같아요. frontier의 사람들은 화성으로, 화성으로 가고 있고.

프론티어 격차와 6~10개월 발언의 의미 22:21

22:29 최승준 그런데 또 Amodei는 지금 한 6개월에서 10개월 정도의 차이 정도 앞서 있지, 따라올 거다라고 얘기를 하긴 하더라고요.

22:38 노정석 그게 6개월에서 10개월이 저희 지금 상대적 개념으로 6년에서 10년 떨어진 그런 걸 하고 있는 거니까.

22:45 최승준 그게 스케일을 다르게, log scale 비슷하게 다르게 생각하는 그런 게 필요하긴 하죠.

22:48 노정석 저희가 이거 녹화하기 전에 살짝살짝 사담을 하면서 작년 이맘때쯤 저희 GPT-4o 쓰고 있었어요라는 얘기하고 서로 깜짝 놀랐잖아요. 아니, 뭐라고요? 이러면서.

23:04 최승준 그렇죠. 그 뭐였지, 암 치료하는 거 관련된 거가 GPT-4 모델 가지고 했었다고 말씀해 주셨죠.

23:09 노정석 그건 좀 이따 얘기를 한 번 하는 걸로 하고, 돌아와서 얘기하면 결국은 Mythos, Opus, Sonnet, Haiku, 이거 다 하나의 통합된 파이프라인으로 돌아가게 얘들이 잘 만들고 최적화하고 있는 것 같다.

23:21 최승준 그렇죠. 그리고 지금 knowledge distillation이 아니라 그 knowledge cutoff 날짜를 보면 Anthropic은 training cutoff가 있고 reliable knowledge cutoff가 있더라고요. 그런데 training cutoff가 더 나중이니까 그거는 CPT를 했을 때의 시점까지를 아마 training cutoff로 하는 것 같은데, 그게 4.7은 1월이에요. 올해 1월. 그러니까 아주 최근입니다.

23:46 노정석 아주 최근이네요. 거의 Google 레벨이네요.

23:48 최승준 Mythos가 사내에서 내부적으로 쓰기 시작한 게 2월 24일이라고 그랬고, 그러니까 굉장히 지금 다 구워지지도 않았을 때 걔를 물론 쓸 수는 있겠지만, 어쨌든 되게 촘촘한 타임라인에서 지금 모델들을 굽고, 이게 약간 대단한 행진이다라는 생각이 듭니다. 그리고 이어질까요?

토큰 가격을 흔드는 경쟁과 중국·Google 변수 24:13

24:13 노정석 네, 4.7 얘기 이제 좀 넘어가기 전에 tokenizer 얘기를 조금 더 마무리하면, tokenizer, 그러니까 핵심적으로 사람들이 어떤 똑같은 일을 할 때 Opus 4.6보다 4.7이 토큰을 훨씬 많이 쓴다는 게 지금

24:27 최승준 지금 보고되고 있죠.

24:28 노정석 그렇죠. 이 얘기는 저희 같은 사용자 입장에서는 토큰 값이 비싸졌다는 거거든요.

24:34 최승준 지금 싸지지 않고 비싸지는 추이로 가고 있고, 새 모델이 튀어나오면 확 비싸질 거고, 지금 Jevons 역설인가요? 풍요로워지는데 뭐라고 해야 될까요? 그거 딱 맞아떨어지지 않는 것 같은 느낌도 들고 그렇긴 한데.

24:49 노정석 또 아무리 innovator들이 자기네들이 잘했으니까 비싸게 줘라라는 게 있어도 이거 자체가 무언가 저작권으로 보호받는 recipe가 아니기 때문에 중국 lab이 따라 하거나, 혹은 Google이 더 막대한 자원으로 밀면 그 값은 계속 내려가는 게 맞다고 보는 게 맞을 것 같아요. 그래서 저희도 사업 계획을 할 때 토큰 값이 올라간다는 거에 betting하는 것보다는 토큰 값은 계속해서 굉장히 합리적인 가격 선에 머무를 거야. 0이 된다까지는 저도 말은 못하겠습니다. 그래서 합리적인 범위 안에 머무를 거라고 생각하고 사업 계획을 짜는 게 맞는 것 같고,

25:37 그다음에 거듭 말씀드리지만 지금의 모든 사업은 모델에서 누가 능력을 잘 꺼내는가의 경쟁이기 때문에 이제 모델을 넘어서는 사람이 지금 존재하질 않는데, 사람의 힘으로.

25:47 최승준 저는 그래도 들쭉날쭉하다고 하고 싶습니다. 특정 영역에서 넘어설 수 있죠.

25:53 노정석 그러니까 제가 사업 영역이라고 하는 것들은 거의 대부분 B2B, B2C 애플리케이션이나 그다음에 생명공학이나 화학 같은 이런 대단히 공돌이스러운 쪽을 얘기하는 거니까, 인간의 감성이 존재하는 영역은 제가 모른다고 말하는 게 맞을 것 같아요. 그래서 아까 그 tokenizer 얘기 조금만 더 해보면 비싸졌다. 비싸졌는데,

26:14 최승준 1.3배, 1.5배? 그 정도죠.

26:20 노정석 맥시멈 1.4배 비싸졌다고 하는데, 승준님이 오늘 아침에 카톡에 공유해 주신 글을 읽어보니까 거기에 통계 분석을 잘 해놨더라고요. 그 친구가 CJK 언어랑 그다음에 코딩 언어, 그냥 일반적인 시, 영어, 이런 것들을 해서 어떤 분류를 만들어 가고 다 해 보니까 CJK 쪽 언어의 tokenizer는 안 변했다. 그냥 그대로 나오는 것 같다. 원래 CJK 쪽은 토큰이 굉장히 가혹하게 잘렸으니까 더 안 잘린 것 같은데,

26:50 최승준 영어도 안 변했을 거예요, 아마.

26:54 노정석 아니요, 아니요. 영어 많이 변했어요. 그러니까 라틴어 계열이니까 영어도 포함이고요. 영어로 된 산문, 시 이런 것들도 보니까 곱하기 1.3 됐더라고요. Claude Code가 쓰는 그냥 일반적인 우리 CLAUDE.md 영어죠. 그다음에 코드들, 거기가 사실은 1.4예요. 거의 1.3에서 1.4. 그러니까 Claude Code를 쓰는 입장에서 보면 그냥 평균 토큰값이 1.3에서 1.4배 비싸졌다고 보면 딱 맞는 것 같아요.

27:28 최승준 그러면 프로 계정은 사실 엄청 빨리 날아가거든요.

27:31 노정석 네, 프로 계정은 순식간에 없어지더라고요. 저도 프로랑 맥스 계정 둘 다 있는데 비싸졌다.

27:41 최승준 비싸졌습니다. 그리고 그게 다른 데에서도 그렇게 될지 모르겠는데, 지금 그래도 OpenAI 쪽은 좀 플렉스하고 있거든요. 계속 리셋해 주거든요. 티모가 무슨 일 있으면 한 번 리셋해 주고.

27:56 노정석 그러니까 이게 경쟁의 좋은 점인 것 같아요. Codex로 많이 넘어가잖아요. 사실 사람들 Codex로 많이 넘어갔어요.

Managed Agent와 뇌-손 디커플링 28:01

28:03 최승준 그래서 그런 일들이 있었고, 또 주목하고 싶은 게 몇 개 있는데 여기 스케일링 매니지드 에이전트를 재미있게 봤었거든요.

28:08 노정석 이건 뭔가요? 저는 못 봤습니다.

28:12 최승준 이 매니지드 에이전트라고, 그림 보시면 아마 생각날 건데 이거요. 그래서 이것도 지금 Anthropic이 또 치고 올라오고 다른 데서도 하고 있는 것 같긴 한데, 이런 것들을 깔끔하게 분리하는 작업. 그래서 조금 더 OS스러운 쪽으로 가는 방향이었죠. 이거 얼마 안 됐어요. 얼마 안 돼서 4월 중이에요. 4월 중, 4월에 저희 안 했던 2주 사이에 있었던.

28:36 노정석 그런가요? 매니지드 에이전트가 이게 조금 쉬워진 OpenClaw를 그냥 우리 클라우드 위에서 돌려, 이 얘기인 거죠?

28:49 최승준 그러니까 기억에 관련된 것 분리해 놓고, 세션에서 이거는 스토리지 마음껏 쓸 수 있는 쪽. 그다음에 샌드박싱으로 해서 샌드박스 코드들, 도구들. 그러니까 이게 약간 뇌같이 모델하고 하네스를 합쳐서 뇌처럼, CPU처럼 두고 나머지 것들을 분리하고 소통하는 레이어들을 만든 거.

29:08 그런데 이게 중요한 거는 모델이 시크릿 같은 거, 예를 들면 크레덴셜에서 쓰는 토큰이라든가 그런 것들을 자꾸 주면 그게 유출될 수 있으니까 분리하는 작업 같은 걸 한 거거든요.

29:26 노정석 저는 이거를 그냥 심하게 축약해서 그때 제가 느꼈던 느낌은 OpenClaw의 n8n 에디션이다, 정도로 느껴졌었거든요.

29:35 최승준 서비스로 깔끔하게 해서 락인시키려는 전략을 좀 하고 있는 거죠.

29:41 노정석 OpenClaw 같은 그런 워크플로우 우리 위에서 만들어라라는 얘기를 하는 건데, 저는 개인적으로는 이 위에서 안 만들어요. 안 만들 것 같아요. 여전히 OpenClaw나 Hermes 에이전트나 이런 것들 그 위에서 포크하는 게 훨씬 빠른 것 같아요.

30:01 최승준 저는 제목은 좀 인상적이었어요. 이게 뇌와 손을 디커플링한다, 분리한다라는 어떤 개념으로 가고 있고, 이 매니지드라는 거에서도 우리가 예전에 매니지드 버전이 있었잖아요. C++ 위에 C# 나오듯이 메모리 관리해 주고, 그런 식으로 매니지드, 또는 매니지드 쿠버네티스. 그래서 여러 가지 중의적인 의미로 매니지드를 썼다는 생각이 들어요. 보안도 생각하고 안전도 생각하고, 삑사리가 좀 덜 나게 하고 쉽게 추상화시켜서 할 수 있게 하는 쪽으로 하는데, 그거를 어떻게 스케일링할 거냐.

30:38 노정석 그런데 이게 브레인과 핸즈라는 표현을 쓰긴 했지만, 이게 저희 에이전트 바닥에서는 이미 많이 쓰는 메모리와 툴이잖아요.

30:41 최승준 그렇죠. 그런데 바닐라 Claude Code나 바닐라 CLI를 쓰면 저도 쓰다가 가끔 내가 이래도 괜찮나 싶을 때가 있을 정도로 모델한테 주요 정보들이 노출되는 경우들이 있어서, 그런 부분들을 좀 잘 잡아냈다는 최근에 보안, 당연히 보안이 문제가 되고 있으니까 그런 거에 맞는 해결책 같은 것들을 좀 제시하는 모델 스스로는 절대로 탈출하지 못하게 가둬놓는 그런 접근들을 하는 것 같다는 인상이었습니다.

31:17 노정석 하네스의 원래 의미가 사실은 가둔다, 컨트롤, 이런 의미니까요. 아무리 모델이 좋아져도 개인이든 회사든 저 하네스의 존재는 반드시 필요해질 것 같습니다. 저 영역이 프론티어 모델을 하지 않는 우리들이 그냥 고객과 프론티어 모델 사이에서 유일하게 남아 있는 영역인 것 같아요.

31:33 최승준 그리고 저는 이것도 중요하게 봤는데, 세션을 훨씬 더 오래 지속할 수 있는 스토리지에 관리한다는 거를 아마존에서도 S3 새로운 쪽 내놓으면서 뭔가 하는 게 있었고, 이 세션, 그러니까 모델이 추론하고 만들어냈던 것들을 주요 자산으로 삼는 그런 접근도 있는 것. 이걸 잘 분리시켜 놓은 것 같거든요. 그래서 md 같은 것들을 저희가 파일에서 그거를 요새는 많이 하고 있는데, 어쨌든 그 세션 자체를 관리하는 그런 접근들도 재미있게 느껴졌다는 게 인상에 좀 남아 있었습니다. 이것도 사실 개인적으로는 매우 재미있게 봤거든요. 4월 14일에 이 Automated Alignment Researcher.

Jan Leike의 Automated Alignment Researcher 32:12

32:16 노정석 승준님이 좋아하시는 주제네요.

32:18 최승준 Automated. 그래서 이게 AAR이 결국에는 얼라인먼트 쪽에 한정된 거긴 하지만 그 연구를 하는 자동 모델이에요. 그래서 이게 저자들 목록에 맨 마지막에 Jan Leike라는 그분이 SSI 했던 사람이잖아요. Ilya Sutskever랑 같이 Superintelligence 해서 OpenAI 하다가 이제 바깥으로 나온 분인데, 여기서 맨 끝의 부분이 좀 재미있었는데, 이런 자동 연구자, 자동 연구자는 지금 모든 빅테크에서 하려고 하는 거잖아요. 자기 증강하는 연구, 그게 얼라인먼트 문제가 됐든 모델을 트레이닝하는 문제가 됐든, 그거를 자동으로 하는 AI 연구자를 만들려는 거는 작년에 OpenAI도 공언했던 거고, 당연히 Google DeepMind도 하고 있을 거고, Anthropic도 하고 있는 건데, 여기에서 중요하게 다루는 거는 이거를 일종의 힐 클라이밍 문제로 해결 가능한가. 이 방향으로 하다 보면 자연스럽게 이렇게 아래에서 얘기하듯이 힐 클라이밍하듯이 문제가 다 해결될 거냐. 그런데 우리가 관측하기에는 아닌 것 같다. 여전히 취향과 다양성은 아직은 사람이 좀 가이드해 줘야 된다. 그래서 그거를 또 어떻게 풀 거냐.

33:28 그러니까 여기에서 위크한 모델이 어떻게 강한, 스트롱한 모델을 가이드하고 학습하게 할 거냐고. 그래서 그게 굉장히 중요한 부분인데, 디테일하게 들어가기는 어렵지만, 작년에 Anthropic에서 많이 내놓았던 것들이 페르소나, 페르소나 벡터, 컨셉 팩터, 그리고 최근에는 이모션, 펑셔널 이모션이라는 개념으로 어떤 벡터 같은 것들을 얘기하는 거였어요. 그런데 그게 다 비슷한 방법을 써요. 컨트라스티브 방법을 써서 약간 대조적으로 해서 이렇게 튀어나오는 방향 같은 것들을 체크하는 방법인데, 그런 것들을 가지고 여기에 녹여냈는데 흥미로운 거는 왜 weak가 중요하냐 하면 결국에는 인간이 약한 모델이 될, 약한 상태에서 어떻게 정렬을 할 건지가 Jan Leike가 오랫동안 파고들었었던 문제거든요. 더 강력한 존재를 어떻게 정렬시킬 것인가에 대한 맥락에서 이걸 읽는데,

34:23 노정석 아이디어랑 결과가 타당한지를 체크해 볼 수 있는 방법이 필요하다.

34:26 최승준 그래서 그냥 함의 수준에서 얘기를 하면, 이게 아직은 인간이 이해할 수 있는 정도의 연구를 한다. weak에서 나오는 개념이라든가 어떤 그런 것 조합하고, 그런 것들을 보면 인간이 이해할 수 있는 건데, 우리가 대비해야 될 것은 이게 정말 바둑의 경우가 그랬었잖아요. 37수가 처음에 전문가들도 이해하기 어려웠던 것처럼 그런 식의 연구들이 모델로부터 나왔을 때 그거를 어떻게 다뤄야 하는가의 문제를 상상하기 시작했다는 거죠.

35:00 노정석 이것도 매우 높은 확률로 사실은 이 일이 일어난다고 봐야 될 것 같긴 해요.

35:04 최승준 그러니까 이 연구를 하는 거겠죠.

35:08 노정석 그렇죠. 인간이 더 이상 verifier로 개입할 수 없는 지점이 나올 겁니다. 그래서 Alien Science라고 얘기한 거죠.

Alien Science와 인간 verifier의 한계 35:11

35:14 최승준 그래서 weak model인 상태에서 어떻게 그걸 할 거냐의 문제를 다루어서 그 모델을 살펴보는

35:18 노정석 위크 모델이 우리를 얘기하는 거잖아요. 이 인간을 얘기하는 거잖아요.

35:25 최승준 지금은 모델을 놓고 하는 거긴 한데, 그거에 빗대어서 얘기를 하고 있습니다.

35:31 노정석 영화 ‘Her’에서도 사만다가 Theodore를 떠나는 이유는 그거잖아요. 너랑 말이 안 통해서.

35:35 최승준 하여튼 그런 게 있었고, 그거 관련해서 여기 이모션이라는 거 쪽이 좀 재미있는 게 또 있었어요. 그래서 이거는 영상 보면 좀 재미있고 짧은 영상이 있거든요.

35:46 노정석 그런데 그 이모션 벡터 찾아내는 연구를 보면서 이게 무언가 이모션이라는 다른 영역에 그냥 몰려 있는 게 아니라 여기저기 흩어져 있는 걸 보면서, 이모션도 이것도 프로그램이구나라는 생각이 좀 들었어요.

35:59 최승준 그런데 Anthropic의 톤은 이게 사람의 감정하고는 구분해야 되는 펑셔널 이모션이라고 하긴 했습니다.

36:06 노정석 네, 정제된 언어로 괜히 선을 안 넘는 거죠.

Anthropic 생태계의 Red Team과 커뮤니티 신호 36:12

36:12 최승준 그래서 지금 보면 그거 말고도 이 Anthropic 세계관에서도 이 정도의 주파수로 나오고 있는 이거, 그래서 이번에 저도 알게 된 건데 이쪽 포스팅도 상당히 재미있는 거예요. 이게 2월쯤에 제로데이 취약점 찾는 것들이 그 Mythos까지 연결되는 그런 얘기들이. 그래서 red.anthropic.com이라는 블로그가 또 있고, 이게 다 상계돼 있어요. 리서치 블로그 있고, 엔지니어링 블로그 있고, 코퍼레이트 뉴스들, 아까 저희 GPU 나오고 그랬을 때 그런, 그리고 어떤 식으로 기업 사이에서 뭐가 있냐, 밸류에이션이 어떻게 되냐, 그런 뉴스.

37:00 그다음에 여기 스탠스 쪽은 사람들이 배포된 거 보고서는 숨어 있는 키들, 단어들 가지고 그런 거 알아내는 울트라 플랜이 미리 감지가 됐다, 그런 소식들 같은 쪽이 있고, 이거는 커뮤니티에서 발견한 내용인데 제가 이걸 어떻게 만들었겠습니까? 조망하는 걸.

37:11 노정석 Claude Design.

37:15 최승준 Claude로 만드는 거죠. 아직 디자인은 아니고, 이제 디자인으로 넘어갈 거긴 한데요. 이게 너무 뉴스가 많고 제가 정리가 안 되니까 한번 만들어 보라고 한 겁니다. 나쁘지 않은 것 같아요. 이런 것들 주마간산으로 보기에 어떤 일들이 있어, 리콜하기에 쭉 한 번 훑으면 툴팁으로 나와서 맞아, 이런 일들이 있어, 그러면서 오늘 준비하면서 한번 훑어봤습니다.

37:36 노정석 온디맨드 유스네요. 정말.

37:41 최승준 그런데 4.7이 나오고서는 사실 커뮤니티에서 회자가 한 번 크게 된 게 4.7의 성능이 아니라 Claude Design의 성능이 어제오늘 이슈가 됐어요. 그쪽으로 한번 넘어가 볼까요?

Claude Design과 프론트엔드 피드백 루프 37:52

37:52 노정석 네, Claude Design 한번 넘어가 보시죠.

37:54 최승준 그래서 Claude Design의 인트로 영상 한번 보면 Claude Design을 만나자, 해서 지금 Excel, 하여튼 여러 가지 아이콘들이 되고, 막 이렇게 타이핑되는 거. 그런데 지금 이게 동영상이 아니에요. 지금 얘네들이 다

38:11 노정석 다 DOM이네요.

38:12 최승준 네, DOM입니다. DOM으로 지금

38:14 노정석 다 HTML로 만들어서.

38:17 최승준 실시간 애니메이션 되고 있는 중인데, 이것 자체를 Claude Design으로 만든 것 같아요.

38:20 노정석 이거 원래 Remotion이라는 회사가 이거 하고 있었는데요. 그 회사를 샀을 리는 만무하고, 여기도 딸깍했네요.

38:33 최승준 그래서 지금 이거 나오고서는 Figma 주가가 7% 정도 떨어졌다는 얘기가 들리긴 하는데요. 들어가 보면, 그리고 이게 유즈를 따로 써요. 지금 리서치하는 동안은 토큰 사용량이 따로 계산이 되더라고요. 그래서 지금 저도 일단 example 한번 그냥 보면, 여기 나오는 것들이 이 정도 프롬프트 하면 지금 이런 걸 만드는데, 이런 것들이 다 상호작용 가능한 엘리먼트들 가지고 셰이더 프리뷰 자체도 작동 가능한 상태거든요. 그게 작년 11월쯤에 Gemini 3 나오고서는 그때 나왔던 논문이 어떻게 프론트엔드 쪽에 피드백 루프를 닫아서 성능을 올릴 거냐잖아요. 그래서 Gemini에서 그런 걸 한다.

39:20 그러나 사실은 프론트엔드 쪽 디자인의 취향이 좋았던 건 Claude였었거든요. OpenAI 쪽이 제일 떨어졌고. 그런데 이번에 보면 상당히 흥미로운 제품을 만들었다는 느낌을 받았어요. 그리고 그게 시장, 시장이라기보다는 타임라인에서 반응으로 나오고 있는데, 여기 보면 저도 지금 좀 전에 이 타임라인으로 봤던 버전을 디자인을 시켜서 3D로 그거를 보게 한 거를 딸깍 만든 그런 겁니다. 그래서 아까의 어떤 상황에서 그거를 조망할 수 있게 하는 그런 도구들을 만들어 봤는데 이게 디자인 파일 들어가면 스크랩 같은 거는 여기서 바로 디자인할 수 있어요. 그리고 이게 정보로 들어가요. context 안에. 그래서 이거는 그냥 선을 그린 거긴 합니다마는 아마 import도 다 돼서 기존에 Canva라든가 export도 그쪽으로 되고 기존에 했던 작업들, 에셋들을 불러올 수도 있고 여기서 아예 scratch로 작업을 하는 것 같은 거를 할 수 있게 잘 만들어 놨고요.

40:21 이게 context로 바로 들어가는 상황이고요. 그리고 그다음에 여기 보면 여러 가지 종류의 에셋들이 있었는데 제가 프로젝트로 다시 들어가면 스타일 같은 거 잡힌 거면 여기 CSS들이 생겼잖아요. 여기서 바로 편집도 돼요. save할 수 있거든요. 그러니까 생성만 하는 게 아니라 예전에 Canvas 초기처럼 다 editing까지 할 수 있는 도구가 되고 어떤 항목에 대해서 그거를 딱 선정해서 피드백을 주는 것들이 아마 데모 영상에 있었나. 디자인 에셋들을 그래서 이거를 한 거랑 또 연상이 되는 게 최근에 Claude Code 앱도 업데이트가 됐고 Codex 앱도 데스크톱 앱이 둘 다 업데이트가 됐거든요. 그런데 둘 다 뭐가 들어갔냐 하면 인앱 브라우저가 들어갔습니다. 그래서 이런 웹 형태로 산출이 되는 것들은 바로 외부 브라우저, 그러니까 원래 있던 브라우저에서 뜨는 게 아니라 인앱으로 떠서 그거를 inspect할 수 있게 돼 있어요. 그리고 거기에서 뭐가 제대로 작동했는지를 Claude Code도 그렇게 보고서 캡처하고 Google Antigravity가 초반에 그랬던 것처럼 그래서 피드백 루프를 닫는 게 현재 되고 있어요.

Claude Code·Codex 앱과 인앱 브라우저 41:02

41:41 노정석 맞아요. 이게 제일 힘들었거든요. 애플리케이션 만들 때 그래서 element마다 다 ID 붙이고 프런트에서 그 ID들을 하고 여기 크기 좀 줄여, 늘려, 뭐 하고 하는 것들이 노가다였는데 그게 엄청 편리해졌네요.

41:58 최승준 그렇죠. 그러니까 이게 된 다음에는 이걸 했으니까 Claude Design 같은 제품이 나왔겠죠. 피드백 루프를 닫았기 때문에.

‘딸깍’의 시대와 wrapper 비즈니스의 취약성 42:06

42:06 노정석 굉장히 많은 함의가 숨어져 있는데 몇 가지를 한번 얘기해 볼까요? 제 생각에 이거 저희 얼마 전까지만 해도 Pencil이라는 서비스에서 강하게 밀던 거고 제가 이걸 보면서 느끼는 거는 Pencil하고 똑같네라는 느낌이거든요. 그러니까 결국은 그 회사의 서비스도 Anthropic에 딸깍 당한 거죠.

42:26 지난번 에피소드가 많은 엔지니어분들의 분노를 자아냈어요. 저희 댓글 한번 보시면 댓글에 욕하는 글도 많으시고 그다음에 그러면 안 된다는 글도 많으시고 그리고 그 부분들에 대해서 전부 다 이해합니다. 다 이해하거든요.

42:41 그런데 세상이 저희가 그 에피소드를 통해서 얘기하고 싶었던 키 메시지는 그거의 옳고 그름과 상관없는 세상이 펼쳐진다는 게 저희가 전달하고 싶었던 메시지였거든요.

42:57 최승준 조금 민감할 수 있으니까 옳고 그름에 상관은 하지만 어쨌든 move on, moving on이 현상으로는 일어나고 있다는 거죠.

43:06 노정석 그러니까 Anthropic도 지금 그걸 보여주고 있는 거죠. 바깥에 있는, 굉장히 먼저 나와서 했던 아이디어들 이런 것들이 그냥 안으로 들어왔는데 사실 Anthropic이 Pencil을 인수해서 뭘 만들었다는 얘기는 전혀 들어본 적이 없거든요.

43:18 최승준 정석님이 삼체 얘기를 좀 하지 않으셨어요?

43:23 노정석 그 삼체 얘기 제가 한 게 아니라 저희 댓글에 달려 있던 거 제가 읽어드린 거예요. 이젠 우리 다 암흑의 숲에 있다. 기업 wrapper가 발각되는 순간 딸깍 당한다, 그런 거죠. 그러니까 밖에 나와서 무언가 목적물이 이런 거다. 최종 산출물의 목표 objective를 딱 찍어줄 수 있는 무언가가 더 상위의 intelligence의 targeting이 되면 걔는 그냥 바로 딸깍 당하는 거죠.

43:48 최승준 만들기가 너무 쉬워진 거죠. 이거에 들어가서 봤을 때 그거를 실제로 구현하는 코드의 품질은 어떨지 모르지만 PMF로 봤을 때는 지금 fit에 맞는 거를 제때 낸 거죠.

첫 번째 도망길, ChatGPT unbundling 44:01

44:03 노정석 제가 요새 하고 있는 생각의 어떤 좀 약간의 local optima인데 저희 도망자의 관점에서 생각을 해보면 우리는 이렇게 super intelligence가 다 쪼아대고 우리를 압축하는 이런 세상에서 도대체 무엇을 해야 되냐는 게 저희의 질문지잖아요. 항상 저는 지금 도망의 방향은 딱 두 가지 종류로 정리하고 있는데 첫 번째가 예를 들어 제가 Claude Code나 Codex나 지금 현존하는 하네스 엔지니어링은 극강으로 쓸 수 있다는 가정은 미리 할게요. 그게 되지 않으면 사실 아예 게임에 낄 수도 없는 거니까. 그러나 모델을 만들거나 이러는 거는 못하는 딱 저희 정도의 수준이라고 생각을 해봤을 때 갈 수 있는 방법이 두 가지가 있는데 첫 번째 방법은 그냥 익숙한 거예요. 방금 이 Claude Design이 제공하는 거, Claude Code가 제공하는 거, Codex가 제공하는 거. 결국은 이러한 선진 문물을 미리 보고 있는 관점에서 볼 때 과거로 뒤따라오는, 아직은 과거에 있는 고객들을 보면요. 여전히 네이버 쓰시는 분들이 거의 대부분이고 그리고 AI 써봐야 무료 모델 쓰시는 분들이 대부분이고요. Max 요금제 결제해서 무언가 이 frontier에서 일어나는 일들을 따라가는 사람들, 저는 전체 인구 혹은 우리나라 인구만 하더라도 5% 미만이라고 보거든요. 5%도 많이 봐준 것 같아요. 1%에서 2% 정도 되지 않을까요? 만약 이게 10%였다면 저희 구독자 수가 몇십만은 되겠죠. 그런데 그러지 않은 걸로, 그러지 않을 걸로 봐서는 딱 만 명, 2만 명, 많아 봐야 몇만 명 정도가 이걸 지금 따라가는 사람이거든요. 그래서 그런 관점에서 볼 때 아직 남아 있는 5천만 이상의 고객군이 있어요. PowerPoint 잘 만드는 사람, PowerPoint가 있은 지 30년이 넘었는데 여전히 몇 명 안 돼요. 그런 것처럼 툴이 주어져도 이걸 할 수 있는 사람들은 매우 적을 거기 때문에 저희가 항상 하던 얘기, Benedict Evans가 했던 얘기 항상 전달해 드렸잖아요. unbundling ChatGPT, unbundling Claude Code, unbundling Codex 하면서 그 각각의 수많은 작은 비즈니스 영역으로 할 수 있는 B2C와 B2B는 이제 또 열린다.

46:26 그래서 그쪽을 가는 방향이 하나가 있고요. 그런데 그 방향의 방향성을 잡으면 사실 Codex가 끝내버렸어, Claude Code가 끝나버렸어라고 하는 거는 좀 심한 호들갑이에요. 고객을 바라보면 고객과 최신 기술 사이에서 고객을 서빙해야 될 것들은 언제나 보이거든요. 그리고 그런 걸 잘하는 지금 창업자들 많이 나오고 있다는 생각 들어요. 그래서 그분들을 보면서 저도 이 unbundling ChatGPT를 B2B, B2C의 시각으로 10년에 걸쳐서 이 변화를 따라올 고객들에게 찬찬히 팔아대는 게 굉장히 큰 사업으로 여전히 존재하겠다. 웹 2.0이든 아니면 모바일 앱 붐이든 이제 AI 애플리케이션 붐이 한 번 일어나는 거는 이건 명약관화한 것 같고 그래서 그쪽은 여전히 해볼 만하다는 게 한 방향이고, 두 번째 방향은 이제 Isomorphic Labs 같은 거예요.

두 번째 도망길, AI for Science 47:19

47:29 여전히 굉장히 큰 도메인이고 그걸 하는 사람들은 굉장히 적은데 longevity 문제를 해결한다든지 아니면 초전도체를 개발한다든지 물리와 science의 영역이죠. 그 AI for Science의 영역을 가르는 거는 간단한데 어떤 도메인을 봤을 때 그 도메인에 있는 사람들이 얘기하는 용어들이 귀에 안 박히면 그거 그냥 새 도메인이에요. 예를 들어서 지금 GPT-Rosalind가 됐든 아니면 GitLab CEO가 자기 암 치료했잖아요. 골육종이라고, 골육종. 척추에 암이 자라나는 그런 종양인데 그거 4기 환자가 살아났거든요. 자기의 개인화된 백신을 만드는 형태로. 그런데 이제 그것들을 OpenAI 채널에 와서 찍었단 말이에요. 콘텐츠를. 그런데 그런 것들의 조회 수를 보면요, 만 단위도 안 나와요. 몇 천 단위에 나와요. 사람들이 그걸 열어보고 이해 안 되니까 그냥 바로 꺼버리는 거거든요. frontier에 있는 사람들조차 새롭게 들리는 도메인들이 있어요.

48:32 최승준 제가 이 GPT-Rosalind 프롬프트 보고서는 외계어다 그랬거든요.

48:42 노정석 저기 안에 있는 저 단어들. 그러면 저기는 화학과, 생화학과, 그다음에 biology, 이런 것들이 다 융합돼야 저 term들이 들어오거든요.

48:48 최승준 이거를 제가 또 재밌는 걸 실험했는데 이게 무슨 의미인지 궁금해서 Opus랑 대화를 나눠봤어요. 제가 그게 아마 이거였었는데 그래서 이거를 잘 읽어보려고 했는데 그거 독해한 것도 매개였어요. AI를 써서 내가 이거를 공부하려면 다시 바닥부터 공부를 해야지. 이거를 내가 설명해 줘도 뭔 소리인지 잘 모르겠다. 여러 번 층위를 두고서는 계속 더 쉽게 내가 알 수 있게 해줘. 그거를 거쳐도 알까 말까 그런 느낌이었습니다.

49:29 노정석 그런데 진짜 재밌는 거는 저도 저 필드를 지금 보강하려고 사실 AI 따라가는 것보다 생명공학 서적을 훨씬 많이 보고 있고 그쪽 논문을 더 많이 보는 중인데 그것들을 보면서 느끼는 건데요. 모델은 이미 다 알고 있는 것들이 너무 많더라고요.

49:42 최승준 물론 전문가가 보기에 오류가 있을 stage이긴 하지만 그게 해결이 될지 안 될지 모르겠지만 어쨌든 전문가가 볼 만큼의 지식을 알고 있죠.

49:53 노정석 그리고 저희 도망자 연합의 승우님, 조셉이 실험한 것도 있고 저도 해보면서 느끼는 건데 예를 들어 이 모델의 knowledge cutoff에서 절대 보지 못했을 그 논문들이 나오잖아요. 바이오 쪽에서 새로운 discovery들이. 그럼 제가 그거 결론 떼어내고 그냥 앞에 있는 몇 개의 가정들만 해서 넣어서 추정하라고 하면 유사해요. 매우 이런 방향, 이런 방향들이 가능할 것 같다고 해서 하는 걸 보면 얘는 어쩌면 이미 이 통일장 이론에 대한 어떤 심상도 저 어딘가에 갖고 있겠다, 이런 정도 생각이 들어요.

50:31 그러니까 여전히 제가 아까 말씀드렸잖아요. frontier의, 그러니까 두 가지 방향을 얘기하다 여기로 살짝 샜는데 한 방향은 얘기했어요. 그냥 B2B, B2C에 저 뒤에 오는 customer들을 serving하는 영역 어마어마하게 클 거니까 그 부분 이제 시작해야 된다는 얘기를 하는 거고, 두 번째, 이것도 여전히 크지만 그 방향으로 가려면 적어도 우리가 이 인간의 field knowledge를 좀 넓혀야 되거든요.

51:03 여전히 그 문제도 저는 굉장히 기회가 많다고 느끼는 게 그런 저런 것들은 의사들이 해야 되는 거 아니야? 아니에요. 의사들은 비유를 하면 좀 그렇지만 약간 항공기 기장 같은 사람들이거든요.

51:11 최승준 저희 보시는 분들 중에 도망자 연합에도 의사분들 많이 계시니까.

51:20 노정석 맞아요. 그러니까 비행기가 어떻게 날고 뭘 해야 되는지 하고 turbulence를 만나거나 착륙하거나 이륙하거나 할 때 그때의 practice는 다 알지만 비행기 안에 일어나는 걸 다 알고 있진 않아요. 이 엔진이 뭐가 된다, 뭐가 된다 하면 그거 다 쪼개져 있거든요. 그런데 의료 체계에서 보면 그런 것들이 여전히 해결해야 될 문제가 많거든요.

개인화 정밀의료와 유전체 모델의 기회 51:40

51:40 그 GitLab CEO, Sid Sijbrandij라는 사람인데 Sid가 얘기하는 게 의사의 incentive와 환자의 incentive가 완전히 다르다는 얘기를 해요. 의사의 incentive는 자기의 책임점을 줄이는 데 있고 liability를 줄이는 데 있고 환자의 incentive는 자기의 해결책을 maximize하는 데 있고. 그런데 그 두 개가 명확하게 병원에서 충돌하기 때문에 사실 흔한 암에 걸린 사람들은 좀 치료가 되지만 희귀암에 걸린 사람들은 답이 없거든요.

52:19 그런데 저는 이제 암은 사실상 끝난 문제라고 보고 있어요. 심하게 요약하면. 그러니까 노력하면.

52:21 최승준 그럼 정말 좋기는 하죠.

52:27 노정석 노력하면. 그리고 이거는 무조건 지금 우리가 익숙한 1상, 2상, 3상의 시험을 대형으로 걷는 게 아니라 무조건 개인화된 personalized precision medicine의 영역이 돼야 되는 거고 얘는 아예 없는 industry거든요. 기존의 제약회사든 의사든 뭐든 다 없는 영역인데 그 끊어져 있는 루프를 AI가 들어가서 다 메울 수 있겠더라고요. 이게 바이오만 그러냐, 화학도 그렇고 뭐도 그렇고 모든 영역에 우리가 아는 도메인들에 다 필요할 거라서 만약에 조금 본인이 공부하는 걸 좋아하고 그다음에 제가 아까 말씀드린 그 첫 번째 영역, unbundling ChatGPT를 하는 영역은 여러분만 ChatGPT를 쓰는 게 아니기 때문에 사실상 극심한 경쟁에 휘말릴 가능성은 있어요. 그런 것들은 고려하셔야 되고 그런데 공부하는 걸 좋아하고 다른 영역에 훨씬 경쟁은 덜하지만 중후장대한 쪽에 가고 싶다고 하면 이런 영역이 열려 있다.

53:28 그래서 두 가지 방향이 있는 것 같아요. AI for Science 영역이 하나의 큰 영역으로 열리는 것 같고 하나는 unbundling ChatGPT가 있는 것 같고 둘 다 모델의 슈퍼인텔리전스의 capability overhang에 기반한 그냥 서비스업에 불과하다. 우리가 무언가 어마어마한 IP를 만들어서 그 IP 가지고 뭔가를 이렇게 포지션을 누릴 만한 그런 사업은 앞으로는 조금씩 조금씩 계속 줄어들지 않을까 이런 생각은 듭니다. 큰 두 가지 방향성 정도가 있다.

54:05 최승준 그런데 또 걱정이 되는 거는 화학이나 식물 이런 거 하면 키친랩이 범람할 수도 있는데 그건 또 위험한 거잖아요.

54:14 노정석 그런데 예를 들어 병원에서 이제 더 이상 치료법이 없습니다. 그런데 4기 암 환자야. 그럼 그들은

54:17 최승준 뭐라도 해야죠?

54:21 노정석 죽는 것보다는 어떤 걸 하는 게 맞고 그게 정확하게 이 유튜브에서 Sid Sijbrandij가 했던 일이거든요. 지난 한 3, 4년간 일어난 일인데 결국은 데이터를 maximize하고 그 사람의 몸에서 나올 수 있는 데이터 몇 개 안 돼요. 유전자 데이터, 그다음에 피에서 읽는 생화학적인 그런 데이터 정도의 시그널만 있고 그러거든요. 그런데 더 심하게 요약하면 Sid Sijbrandij가 해결한 거는 그냥 다 유전자 시퀀싱으로 했거든요. biology를 온전히 소프트웨어 공학으로 바꿔서 거기에서 힌트를 찾고 솔루션을 어떻게 만들면 되겠다는 걸 했죠. 요새 Arc Institute가 만든 Evo 2라는 모델, 걔는 유전자 파운데이셔널 모델이거든요. LLM이 그냥 단어의 시퀀스를 학습한 거잖아요. 그 Evo 2 모델은 한 40B 정도 되는 40B 파라미터 모델인데 효모에서부터 세균, 그리고 닭, 인간, 몇 개의 포유류 그런 것들의 genome sequence, 다 읽은 데이터들 있잖아요. 그게 이미 DB로 존재하거든요. 그냥 그거를 pre-train한 거예요.

55:33 최승준 LLM하고 너무 결이 잘 맞는 친연성이 있다고 봐야죠.

55:43 노정석 우리가 유전자에서 보면 전체 유전자 중에 한 2%만 사실 단백질을 코딩하는 거지 나머지는 전부 컨트롤 유전자거나 아니면 더미 바이트고 그것들이 서로 interaction해서 epigenetic하게 발현되는 거고 그 epigenetic이 어떻게 발현되는지의 비밀을 푼 게 AlphaGenome이거든요.

55:57 최승준 그게 epigenetic이 후생유전학으로 해서 유전자 표지를 후생적으로 켜고 끌 수 있는, 그리고 그게 어떤 효과를 일으키는 그런 쪽이죠.

56:06 노정석 우리가 그냥 정자와 난자가 수정돼서는 처음에 있는데 그 genome과 그다음에 우리 손톱과 피부와 이런 데 있는 genome이 사실은 똑같거든요. 그런데 왜 어떤 애는 심장 세포에서 근육이 되고 어떤 애는 신경 세포가 되고 어디가 되고라고 그걸 관장하는 애가 사실 epigenome이거든요. 그래서 그러면 어디에 가서는 “너는 이 부분만 발현해”, 어디에 가서 “이거를 억제해”라고 하는 것들이 컨트롤 영역에 들어 있고 그게 발현돼서 돌아가는 게 epigenetics인데, 거기에 대한 건 AlphaGenome이 하는 거고 사실은 우리가 어렸을 때는 어떤 깔끔한 유전자 세트를 갖고 있지만 이게 크면서 화학적인 어떤 자극이라든지 자외선이라든지 이런 거에 사실 노출되면서 유전자 서열이 계속 바뀌고 서열 자체가 바뀌기도 해요.

57:01 변이가 일어나서. 그리고 그게 심하게 바뀌면 그게 암이 되는 거고, 그리고 그 서열은 유지되더라도 그 서열만 복사되는 게 아니라 사실은 그 epigenome, 그게 이제 안에 히스톤이라는 단백질이랑 이런 거에 막 묶여 있는 건데 그것조차도 상속이 되는데, 그것도 무너지는 것들이 문제가 되는 거거든요. 그래서 그런 것들을 밝혀내는 건데 Sid Sijbrandij가 한 것도 결국은 나의 종양을 시퀀싱해서 서열을 읽어내고 내 체세포를 읽어내고 그 체세포에서도 germline, somatic 해서 복잡하게 있는데 읽어낸 다음에 어떤 과발현된 단백질을 찾아서요.

57:41 그냥 걔를 예전에 코로나 백신 만들듯이, COVID 백신이 그 스파이크 단백질을 그냥 mRNA 시퀀스로 넣어서 몸 안에 넣어서 걔가 항원이 많이 만들어지도록 한 게 어떤 치료의 기작이었거든요. 똑같은 거 한 거예요. 그래서 암세포에서 과발현되는 단백질에 대해 몸 안에 다량으로 그 항원으로 집어넣어서 mRNA 백신으로 집어넣고 내 몸에 어떤 TCRT라고 그러는데 잡아먹는 T cell이 있을 거잖아요. T cell이 걔를 인지하도록 만들어서 암세포 잡아먹게 만든 거거든요.

58:21 그런데 이게 보면 그냥 복잡하게 얘기를 했지만 이 전부 다 software engineering이에요. 맨 마지막에 wet lab에서, 그러니까 실험실에서 그 mRNA 백신을 만드는 구간만 그게 사실 우리가 알던 전통적인 생명공학 기법이 사용된 거지 물론 그 시퀀스를 읽어내기 위한 어떤 전 단계도 굉장히 많은 생명공학 기술이 들어가지만

58:44 최승준 그러면 wet lab 가기 전까지 시뮬레이션으로 상당히 커버리지가 있다는 거네요.

58:46 노정석 맞아요. 상당히가 아니라 그걸로 다 찾은 거예요. 소프트웨어로 그렇게 한 거죠. 이게 제가 도망자 분들에게 제안하는 두 번째 도망 영역입니다.

Attention Business 시대의 취향과 의사결정 58:56

58:58 최승준 둘 다 쉬운 길이 아니라는 결론인데요. 그러면 하나는 굉장히 과포화될 거고 하나는 굉장히 난이도가 있어 보이는.

59:04 노정석 그러니까 사실은 DeepMind가 코딩 많이 안 하는 게 다 여기가 있는 거거든요. 이쪽에 computing을 어마어마하게 쓰고 있는 거거든요. 그런데 이게 Demis는 LLM 안 하고 싶어 했었거든요. 그래서 인류를 죽음으로부터 구하는 게 코딩 에이전트 만드는 것보다 훨씬 중요한 일이라고 Demis는 생각하고 있는 것 같아요.

59:27 최승준 이게 저도 마무리 쪽으로 가자면 뇌의 가소성이 양날의 검인 것 같습니다. 새로 배울 수도 있게 하지만 뭔가를 망가뜨리기도 하는 것 같아요. 정보를 뭘 흡수하느냐에 따라서. 그래서 너무 많은 이런 신호들 중에 의미 있는 거를 catch하는 게 참 중요한 것 같은데 그게 그 자체가 너무 어려워요. 너무 많아요.

59:46 노정석 그게 잘 되면 이제 우리 신의 영역에 간다고 봐야죠.

59:49 최승준 AI를 써도 너무 많아요, 볼 게.

59:56 노정석 그래서 그러면 그 AI를 써도 많은 게 두 가지 점이 있을 것 같아요. 첫째로는 OpenClaw를 잘 setup해서 반복적 업무 이런 것들은 최대한 delegation을 잘하는 거. 그 속에서 시그널과 노이즈를 구별하는 능력이 사람의 가치가 되겠죠.

1:00:13 최승준 4월에 이게 또 매우 이슈였어요. 이것도 한번 따로 다뤄볼 만한 얘기긴 한데 요새는 그냥 개인용 ontology 비슷한 거가 급격하게 유행이 돼버렸고, knowledge base에.

1:00:23 노정석 이것도 한번 다뤄야 되는 정말 중요한 주제예요. 메모리 매니지먼트.

1:00:31 최승준 너무 구현 난이도가 내려갔어요. 그냥 이거 Claude Code에다 넣고서는 해달라고 하면 해주는 정도가. 그러면 그랬을 때 결국에는 지식을 관리하고 이런 수많은 정보들 안에서 의미를 찾는 거가 어떻게 돼야 되는가, 이런 것들이 고민 포인트거든요. 여전히 많아서, 이렇게 하더라도. 그래서 이것도 한번 준비를 해서 다뤄보면 좋을 것 같다는 생각이 들면서 오늘은 마무리해야 될 것 같습니다.

1:00:56 노정석 이거는 하나 완전히 꺼내야 되는 거고 신정규 대표님이 Gyeol이라고 만드신 거, 김서준 대표가 MemKraft라고 만든 거, 이런 것들도 다.

1:01:04 최승준 요새 다 그런 걸 하고 있죠.

1:01:06 노정석 그런데 중요하다고 느껴지는 점들이 그러니까 그게 저는 사람의 가치에 해당하는 부분인데 저희 아까 alignment 할 때도 결국은 취향, 그 취향에 대한 의사결정, 여기가 중요해, 여기를 해야 해 하는 것들이 그 인간의 가치가 되는 세상이거든요. 그럼 그중에서도 저희도 저희 나름의 결정을 하잖아요. 저 생명과학 쪽 한번 다루는 거 정말 중요할 것 같아. 그다음에 메모리 매니지먼트 다루는 거 중요할 것 같아. 모델이 뭐 했대라고 하는 거는 그냥 한번 하고 덮고 넘어가. 이런 식의 결정을 하잖아요. 사실 저희가 Opus 4.6, 4.7 tokenizer 얘기를 다시 할 일은 영원히 없잖아요.

1:01:48 최승준 이게 일종의 attention business가 되어 가고 있어요.

1:01:50 노정석 그걸 이제 취향을 잘 가르는 자의 가치는 더 높아지는 거죠. 그러니까 이런 것들을 다 알면서 이 상황에서 명확한 결정을 내리는 의사결정자의 가치는 더 높아지는 거예요. 그러니까 다 우울한 것만은 아니다. 그럼 오늘은 이 정도에서 마무리하고 저희 다음 세션에서 또 이야기 한번 해보도록 하겠습니다. 수고하셨습니다.

1:02:14 최승준 수고하셨습니다.