AI Frontier

EP 77

Gemini 3とAntigravity: あまりにも急峻な変化の曲線

· ロ・ジョンソク, チェ・スンジュン · 1:15:44
ページ全体
エピソードの参考資料を見る

オープニング: Gemini 3公開と1週間のAIタイムライン 00:00

antigravity.google antigravity.google

00:00 ロ・ジョンソク 収録している今日は2025年11月22日土曜日の朝です。今週ついに待っていたGemini 3が出ましたよね。本当に2、3日くらいはGemini 3とAntigravity、この2つを持って楽しく遊んでいた気がします。スンジュンさん。

blog.google blog.google

00:23 チェ・スンジュン Nano Banana Proもありましたしね。

00:25 ロ・ジョンソク では、Gemini 3に関連してどんなことがあったのか、そしてその中の意味を見ていきましょう。

openai.com openai.com

00:34 チェ・スンジュン ドーパミンが出る1週間だった気がします。ただ、もう少し名残惜しい感じもありました。これが一度爆発してから落ち着いていく雰囲気自体が少し惜しくて、それだけ面白い1週間だったと思います。 それで最近のタイムラインを見ると、もう昔のことのように感じますが、9月30日の秋の入り口でClaude Sonnet 4.5が出ましたよね。 その次に10月1日にPeriodic Labsのようなところで科学に関するシグナルが少しありました。その次にAtlasが10月21日、そして10月30日にロ・ジョンソクさんが前回も一度取り上げてくれたOpenAIの内部目標発表。

01:19 ロ・ジョンソク はい、full-stack companyになるという一種の宣言をした日でした。

01:23 チェ・スンジュン その通りです。26年9月ごろにAI研究インターン程度、その次に28年3月に自律走行するAI研究者、こういうものを発表しました。その次に11月12日にGPT-5.1が出ました。だからGPT-4oスタイルのようなものが回復したGPT-5.1だった気がします。 そして相対的にはあまり知られていませんが、僕も1回しか試していないんですが、これ結構意味がある気がしたんですよ。ChatGPT内のgroup chatです。なので僕も1、2回招待して一緒に対話してみましたが興味深かったです。

02:02 ロ・ジョンソク はい、僕はそれ開けてないですね。

x.ai x.ai

02:04 チェ・スンジュン それで今はアプリでもすぐできるので、一度試してみるとまた新しいアイデアを得られるかもしれないです。 一方で「お、OpenAIがこれも拡張してるな」と。アプリケーションを作ってソーシャル関連のことをする方向に、継続して一貫した方向性で進んでいるのが分かりました。 それから11月17日、この時期は韓国でOpenAI DevDayをやった日でもあります。それで僕らも招待を受けて、僕が行ってきました。それから17日にGrok 4.1ですが、ベンチマークがかなり良かった記憶があります。

02:42 ロ・ジョンソク みんなGemini 3が出るのを知っていたから、ChatGPTもGrokもその間に似たような形で「私たちもここまで進歩しました」という発表をした感じですね。

openai.com openai.com

02:52 チェ・スンジュン そうですね。でもいつもそうであるように最後に発表するものが核心なので、今回の盤面ではGemini 3が11月18日、これは米国時間ですが、出ました。 そうしたらすぐ19日に名前はちょっと長いですがGPT-5.1-Codex-Maxが出て、今度はうちもそれに対応するものがあるとOpenAIが言いましたが、雰囲気としてはGemini 3側に少し傾いている気はします。

競合モデルの対応: GPT-5.1-Codex-MaxとNano Banana Pro 02:54

03:25 ロ・ジョンソク はい、Gemini 3とAntigravityを止めるにはGPT-5.1では力不足でした。

arxiv.org arxiv.org

03:31 チェ・スンジュン はい、とにかくCodexでうまくいっている、これからも継続してうまくいく予定だというメッセージを投げました。そして20日にはNano Banana Proが発表されましたが、これが興味深いのはGoogleのエコシステムの中に全部入ったことです。画像を扱うところにNano Banana Proが全部入っていて、今シナジーを出しているんですよ。NotebookLMなどで。そしてAntigravityでも動きます。だからこれがすごくうまく編み込まれているという感じを受けました。

でもOpenAIは、さっきのPeriodic LabsはOpenAIそのものではなく、そこで派生したGoogle DeepMindと、同じくOpenAIから派生した組織でしたが、科学について何か起きるシグナルを読めるとすれば、OpenAIは継続して科学の部分を強調していた秋だったんですよ。夏、秋と。だから科学で今何か発見が起きる兆しがあり、それで押し切っている。

それがさっきのAI科学者、つまりAIを研究する科学者ではあったけれど、いずれにせよ科学全般にGoogle DeepMindが元々それを主力として、Demis Hassabisがずっと言っていたことですが、OpenAIも今それを継続して一貫して話していて、数日前にこれが少し発表されました。

Early experiments in accelerating science with GPT-5というタイトルでブログポストと論文、その次にポッドキャストが出たんですが、Gemini 3をやっていて僕もあまり見られませんでした。でもこういうシグナルがあった。そしてこれはおそらく2026年の予告編でしょう。

AIと科学の結合: OpenAIとGoogle DeepMindの戦略 04:02

05:03 ロ・ジョンソク はい、おそらく2026年はこのAIと結合したバイオ側に多くの進歩が、今回モデルが噴き出したようにまた噴き出す気がします。 まあ、こういう話をするのもあれですが、株式市場のhypeと関連している部分がやはりバイオ側なので、人々の関心がそちらに多く集まっていて、

またいずれにせよ研究者であれ、この分野で事業をする人であれ、結局は収益モデルが確実か、あるいはリターンが大きく出るところにインセンティブが向かうしかないので、例えば社会問題を解決するとか、地球温暖化を解決するとか、そういう少し美しい話よりも、商業的な目的性がうまく設定されるところに多く行く気がします。 そういう側が主にバイオか、あるいはファイナンス、そういうところだと思います。

05:58 チェ・スンジュン 僕はバイオ側はあまり深く見ていませんが、実験と同時にverifiableな何かを行うというのは科学の中にもいろいろなセクターがありますから、そういうものが全般的に影響するんじゃないかと考えました。

06:14 ロ・ジョンソク はい、前回Periodic Labsの話をした時にも言いましたが、僕らはその分野を全部知っているわけではないのでコメントできていないだけかもしれません。少しでも知識があれば、僕もバイオ側に関心が多いのでそちらのニュースに相対的によく触れるから、そのシグナルが強く見えているのかもしれないです。 材料工学とか電子工学、エネルギーといった全般でも、実際には多くの変化があると思います。

06:43 チェ・スンジュン そうですね。だからこそドメイン専門家がそれぞれどんなレンズでこういう現象とこの時代を読み解くのか話してみるのも、すごく興味深そうですね。

06:55 ロ・ジョンソク その通りです。ほんの数か月前まではドメイン専門家とAI専門家の結合が重要だ、という話をしていましたが、

実際にはそのAI専門家、伝統的にソフトウェアエンジニアの役割をしていた人たちは一種のharnessを作る才能があるからそうだったんですが、Gemini 3とAntigravityの話をしながら後半で話しますけど、その役割が継続して縮小しているという強い感覚を受けています。

07:21 チェ・スンジュン とにかく考えることは多いですが進めましょう。

07:25 ロ・ジョンソク 後ろのセクションで、もうスンジュンさんがテーマ設定してくれたので内容が多いですし、行きましょう。

x.com x.com

07:32 チェ・スンジュン いくつかポイントを押さえてみたんですが、僕が注目したのはGoogle DeepMindのOriol Vinyals、Ilya Sutskeverと同僚でしたよね。Googleにいた時。 それでこれは25年じゃなくて去年、Ilya Sutskeverが石油にたとえてpre-trainingはもう高原に達したというニュアンスで話したことがありました。 でもGemini 3は違う。pre-trainingとpost-trainingの両方を改善した。つまりAI scaling lawは終わったという大衆的な信念とは違って、だからその大衆的信念は去年のその発表で語られ、確認された部分ですよね。 でもそうではなく跳躍があった。2.5から3.0の間のデルタ、その差は今まで見た中で最も大きい。まだ限界は見えない。

post-training、つまりこれはpre-training文脈で限界が見えないということで、post-trainingは完全にグリーンフィールドで、遮蔽物がない。だからアルゴリズム的な進歩と改善余地がものすごく多く残っている。そして3.0もその副産物だ、という話をしました。

Scaling Lawは終わったのか? Gemini 3が示したPre-trainingの跳躍 07:35

08:42 ロ・ジョンソク はい、この部分について少し分かりやすく説明すると、スンジュンさん、どう説明するといいでしょうか。pre-trainingというのは実際、既存の考えではもうインターネット上の高品質データは全部使ったので、これ以上出るデータがない。 データ枯渇論が一つあって、その次に二つ目としてはほとんどがゴミデータだということで、そのデータを精製してデータセット品質を上げる部分への努力がありましたし、

そして三つ目はそれを受け止めるneural networkの構造とか現行trainingアルゴリズムとか、さらにそこに投入されるコンピューティング量の限界とか、そういうものがあったんですが、どの部分で進歩を作ったのかは正確には言っていないけれど、違うという話ですね。 でもそういうものを僕らは乗り越えていっているという話をしていましたし、

09:37 チェ・スンジュン つまりそれがOOMを解いたのかデータを解いたのか、何なのかは今正確には分からないんですが、いずれにせよそれはたぶん中国側が少し教えてくれないとじゃないですか?

09:48 ロ・ジョンソク また情報が流れて、KimiやDeepSeekでペーパーとして一度きれいに整理して教えてくれることを願います。

metr.org metr.org

09:57 チェ・スンジュン とにかくどう解いたかは分からないけど、まずは解いたということですよね。それでそれをGPT-5.1に聞いた時には、24年にあったことだと確認してくれて、壁はまだなかった、まだないということなんです。

METRの時間地平は、多くの人がこれを知っていてもまた忘れて、僕もそういう時がありますが、これはモデルが遂行する時間じゃないですよね。人が遂行する時間に対応するものですよね。だから今Gemini 3はまだ反映されておらず、GPT-5.1-Codex-Maxはログスケールで見ると直線より少し上にある程度、そういう形で時間地平が進んでいるわけです。 でも今モデルがそのまま遂行するのは、もう時間単位じゃなくてそろそろ日単位に行ってないですか? ただ継続してずっとやってますよね。

10:56 ロ・ジョンソク どんなharnessを着せるかによって時間は無限に伸ばせる、というのが最近出てくる話ですからね。

11:04 チェ・スンジュン そうですね。どこかのコメントでは、それはただ反復作業をfor loopで回すようにして時間が伸びただけじゃないかという話もありますが、とにかくモデルが遂行する能力は今、はるかに長い時間を扱える状況です。 でも今回の盤面がOpus 4.5が出ることで一度整理されると、まだ出ていませんが、整理されると次の盤面は3月か5月ごろじゃないですか。 そうするとその時にこのグラフが継続して当てはまるなら、今は2時間ちょっとだとして、来年5月には3時間半くらいになるんですよ。3、4、5月くらい。 だからそれは継続して、さっきのOriol Vinyalsが言ったように、まだ壁に当たっていないし進み続けるということを、ずっと念頭に置いておくべきなんです。

11:59 ロ・ジョンソク つまりこの中でもGoogleもそうだしOpenAIもそうだし、パイプラインが一つだけ回っているわけではないんですよ。複数のパイプラインが回っていて、僕はこのパイプラインがどのvintageから出てきたものかを、自分なりにwild guessする方法としてknowledge cutoffを見るんです。見るとGemini 2.5が出る時knowledge cutoffが2025年1月でした。すごくup-to-dateなデータセットでtrainingしたわけですが、今回3.0が出たのを見てもknowledge cutoffが同じです。つまり同じvintageで2.5が犠牲になって、そこから継続して何かが進んだ産出物だという気がします。すると3.0まで来て、次のvintage、完全に新しいvintageはknowledge cutoffがもっと後ろになるでしょう。

モデルVintage理論: データ収穫と知識の更新 12:00

12:57 チェ・スンジュン 今のvintageはワインの比喩ですか?

12:59 ロ・ジョンソク はい、どの年に作られたかということですが、ある収穫物、データセットを一種のブドウ収穫として見たわけです。

13:07 チェ・スンジュン そうですよね。そうですよね。どの年のどのブドウの収穫か、ということですね。

13:10 ロ・ジョンソク そうです。だから2025年1月vintageなんですよ。今2.5、3.0どちらも。

13:15 チェ・スンジュン どんな土壌か?

13:17 ロ・ジョンソク はい。

13:17 チェ・スンジュン ベンダーとも見られそうですね。

13:18 ロ・ジョンソク ではここで得られる革新や、またここで中間産出物として得られるデータセットがものすごく多いでしょう。そしてAI Studioなどで落ちてくる、人が質問を押し込むことで生まれる膨大なデータセット、すごくエネルギーが高いデータですよね。そこでも彼らが学ぶことは多いでしょうし、

13:42 チェ・スンジュン つまり今僕らがデータを渡して使うことももちろん大きいですが、たくさん渡しているじゃないですか。

13:49 ロ・ジョンソク もちろんです。

13:50 チェ・スンジュン たくさんのあんこのようなデータを、つまり経路を渡しているんですよ。単なるデータじゃなくて、データが生成される経路を渡しているから

13:58 ロ・ジョンソク 実際それが重要なんですよ。人はpre-trainingが終わったから長く高原に留まるんじゃないかと簡単に考えがちですが、実際人類の過去の進歩を見ても、ノーベル賞を取ったたくさんの、アインシュタインから1900年代初頭に科学のルネサンスがあったじゃないですか。 その時もその人たちのthought tokenが互いに影響しながらデータセットが継続して増強されてきたわけなので、そう見ると今pre-trainingとpost-trainingも、明確に言えばpost-trainingによって生まれる膨大なデータ そして僕らがAI StudioやAntigravityに注ぎ込む膨大な意志の方向性、こういうものがまたpre-trainingデータセットを増やすので、pre-trainingデータセットが増えれば次の地平へ進むと僕は思います。

14:50 チェ・スンジュン 今は完全に別のアイデアも隠れてはいるでしょうけど、今のregimeがずっと機能しすぎているから相対的に光を見られていないのかもしれません。

14:58 ロ・ジョンソク そうです。まだ今のところこのregimeの好循環が続いている気がします。

15:03 チェ・スンジュン それでOpus 4.5は噂がある状況です。昨日出るか今日出るかって感じでしたがまだ出ていません。 でも最近の噂はほとんど当たるんですよ。面白いのはGDEの方々はNDAに縛られているのでむしろ話せないんですが、タイムラインの噂にはそういうもののleakageがあるんですよ。だから噂がちょっと分布として繰り返されるものがあるとほぼ当たります。

15:31 ロ・ジョンソク AntigravityのClaude Code版がClaude Code Desktopで、これもうすぐ出る。

15:37 チェ・スンジュン はい、そういう雰囲気がありますね。なぜならそれだけAntigravityが今、何か注目の対象になっている気がするからです。

15:48 ロ・ジョンソク その話はあとでAntigravityの話をする時に深くやりましょう。

dwarkesh.com dwarkesh.com

15:51 チェ・スンジュン これの場合も前日にモデルカードが一度共有されたんですが、すぐアーカイブに保存されて、人々がそこで「お、これ何だ、Antigravityって何だ?」と聞いたりしていたんですよ。 つまりGemini 3発表前日の状況で、その時あの噂にベットするサイトですよね。Polymarketです。そこで僕が見た時は91%まで行ってました。前日、つまりみんな知っていたわけです。 それとこれは今日は詳しく扱うのが難しいですが、ここでDwarkesh Patelがこの頃RL関連で興味深いブログを書いていました。 でもここでbits per sample、そしてちょっと言葉遊びでもありますが「ビット」つながりでワット。それでジョンギュさんが最近そのスーパーコンピュータカンファレンスに行ってきたじゃないですか?

新しいコンピューティング指標: GPU台数よりワット(Watt)が重要な理由 16:30

16:46 ロ・ジョンソク 行っていて、もうすぐ戻るみたいです。はい、スーパーコンピュータ25。

16:50 チェ・スンジュン でも最近みんなGPU台数の話をせず、ワットの話をしているって教えてくれたじゃないですか。

16:57 ロ・ジョンソク もうGPUのcomputing powerや台数で話すよりワットに漸近しているので、まるで重量で量って話すほうがずっと楽なように、重量で量って話している感じです。

17:12 チェ・スンジュン 高い情報効率でエネルギーが今知能に置き換わっていて

17:17 ロ・ジョンソク 投入される総コンピューティング量が結局知能を表すんですが、その投入総量に最も多くの情報を含んでいる一種のprecursor、先行指標が電力量なんです。ワット、はい。つまり何ワットがここで消費されたかが、そこに含まれるintelligenceの量を語るようになっていると思います。

x.com x.com

17:42 チェ・スンジュン そうです。それでこの投稿はかなり良かったんですよ。Gavin Bakerという方が19日にTwitterに上げたものですが、僕が翻訳しておきました。でも僕だけでなく多くの方がこのタイムラインを上げていたようですが

17:57 ロ・ジョンソク 一度要約してください。

17:58 チェ・スンジュン 事前学習のAI scaling lawは依然として有効だ。Gemini 3は同じ認識のようです。事前学習で重要なのは一貫したFLOPで、それがBlackwellでもTPUでも関係ない。

だからトークン経済学について少し押さえていて、Grok 4.1もそれでも前に出られるのはインフラを持っているからだ。そこをつないで電力不足の部分を指摘しています。つまりここでワットがボトルネックの時、何が重要になるか、ワット当たりトークンが意思決定を主導するだろう。トークンは文字通り収益だから、とにかくそういう方向で話を展開していました。

そして当然インフラ関連では光ケーブル、冷却、ここでは冷却は扱っていませんでしたが、ジョンギュさんは冷却も重要に見ているようでした。だから結論は、これはすべて僕らがまだAIの非常に初期段階にいることを示唆する。そしてOpenAIの不安を語って締めていました。全体会議から数段落だけ持ってきたものですが。

19:06 ロ・ジョンソク そうですね。そのOpenAIの不安の話は後でSam Altmanのツイート関連でまた話すので、すぐ出てきますね。

OpenAIの内部メモと’Shallotpeat’プロジェクト 19:14

theinformation.com theinformation.com

19:14 チェ・スンジュン The Informationの記事になった件ですが、The Informationを僕が直接読んだわけではなく、Twitter上で話題になっている話を探してみると、ああ今Gemini 3がかなり圧力をかけたみたいです。

事前にそれをみんな知っていたはずなので、社員に送るメモがあったみたいです。それに関する話ですが、ここでSam AltmanがShallotpeatという新しいモデル、事前学習の改善、AI研究の野心的自動化、この野心的自動化は10月に言っていたあの話で、その次にpre-trainingの改善をここでも触れているのが見えるんです。 それでそれが何かと思って少し調べたら、シャロットは玉ねぎのようなもので、泥炭土壌ではよく育たないそうです。 だから土壌が悪くて育ちにくい植物の比喩なんですが、これがpre-training土壌、つまりデータ、方法論、インフラに問題があり、そこでもよく育つ新しい何かを比喩的に表すコードネームではないかという推測を見られました。

20:27 ロ・ジョンソク 簡単に解釈するとGoogleがGemini 3でpre-training段階で何らかの進歩を達成したのは確かで、それに対応するOpenAIの何らかのアクション

20:39 チェ・スンジュン すでにあるということです。すでにあって、まだ発表するレベルではないか、モデルはあるけどサービングできない状況か、そういうことかもしれないですよね?

20:53 ロ・ジョンソク それもあり得ますね。僕は一種のconspiracy理論ですが根拠はないものの、実際こういう進歩も見るとアイデアに過ぎないケースが非常に多いんですよ。 今はアイデア=産出物になる世界に入っていて、pre-trainingをする場所でもGoogleでもpre-trainingを作り出すある種のintuitionがあるだろうし、それはあっという間に伝播するじゃないですか。 OpenAIもすぐやると見ていますし、xAIもやると見るべきだと思います。時差があるだけで上方平準化の速度がどんどん速くなっている気がします。

21:34 チェ・スンジュン そうですね。今の推移で見ると来年6月が今日のGemini 3の中国版が出るべきタイミングではあるんですよ。

21:42 ロ・ジョンソク 半年、そうですね。昔o1が出たのが9月で、その秘密を解明してくれたDeepSeekのR1が出たのが翌年1月でした。5か月くらいなので、来年春が終わる頃にはDeepSeekがpre-trainingの高原をどう引き上げたかというペーパーを出すタイミングですね。

22:02 チェ・スンジュン つまりこれ、今話していてもすごくあきれる感じがしますが、それを想像できないといけないということです。6か月後にビジネスの話をする時、環境がどう変わるか、これを信じないと想像もできないので、常に想像できないといけないんです。

Unlearn-Learn: 複雑な装置(Harness)を捨ててモデルを信じろ 22:20

22:20 ロ・ジョンソク ここでまた僕らがいつも話すunlearn-learn frameworkが出てくるんですが、Claude Codeの話をしながらほんの2か月前に話していたのが、どうharnessをうまく作ってこいつの働く時間を増やすか、働く時間を増やすというのは産出物の品質を上げることでしたよね。 それをどうやって実現するかで出てきたのがClaudeのスキルなどで、最近はものすごく多くのframeworkが出て、どうClaude Codeをさらに拡張するか、そしてharnessがべたべたと張り付いているんですよ。 でも逆に言うと、Antigravityの話で出ますが、その時代もわずか3~4か月で終わるんです。

23:05 チェ・スンジュン そうなんですよ。これに対する感覚が、ある意味すごく重要だと感じる最近でもあるんです。

23:14 ロ・ジョンソク その通りです。以前はエンジニアがharnessを強くすることでこのモデルを鍛えていたのに、そのharnessがまた一度モデルにそのままcapability overhangとして入ってしまったんですよ。それを官僚的に制約するより、最小限のガードレールだけ敷いてモデルに任せる方が、実際産出物が良くなる世界へ早く進んでいるんです。

23:43 チェ・スンジュン 春にNoam Brownが言っていた話です。

23:45 ロ・ジョンソク そうなんです。今スンジュンさんが言った話とぴったりつながるのが、もう一度unlearnのタイミングなんです。僕も会社でharnessがかなり厚くなっているんですが、そのharnessの多くをまた削ってモデルにもっと自由を与える方が、僕らの産出物品質がさらに上がるという、そういうinsightを最近得ています。

24:08 チェ・スンジュン だからGemini 3は今日僕らを驚かせますが、6か月後にはこれがとても安くて普通の状況になる可能性がある。想像しづらいですが

24:19 ロ・ジョンソク そうなんですよ。All-In PodcastのChamath Palihapitiyaというあのおじさんが出てきて、AIは冷蔵庫だと。冷蔵庫産業のrefrigeratorで、そこでおいしい料理が作られて本当に価値あるものはまだ出ていないという話をするんですが、今スンジュンさんが言ったように今僕らが経験しているこの知能が継続して安くなること、そして知能が安いからソフトウェアの値段も0になって、望む製品を作る価格も0になること、少なくともソフトウェア領域では0になるでしょうが、その時何が起きるでしょうか? 想像が必要ですね。

24:59 チェ・スンジュン 想像は必要ですが簡単ではなく、常に想像するには起きることと起きないこと、両方を考えないといけないじゃないですか。実際ちょっと難しいことではあります。

25:13 ロ・ジョンソク もう少し後でまた話しましょう。

ベンチマークの限界とAndrej Karpathyの’Vibe Check’ 25:15

every.to every.to

25:15 チェ・スンジュン Vibe Checkをしてみましたが、まずAndrej Karpathyが言った話でちょっと面白いものがありました。でもすごく重要な話というより、結局モデルと掛け合いしながらモデルがすごく面白く話して「オーマイガー」と言うんですが、Andrej Karpathyが何か言ったら自分はcutoffされているのでそれは起きないと。ところがAndrej Karpathyはweb search機能を切って対話していたそうです。でもそれをオンにしてやると「オーマイガー、あなたが言ったことは全部正しかった」と。つまり少し冷凍人間になったように現実を知ったモデルのその驚く部分を語ることで、むしろモデル能力を語っていたんです。

Andrej Karpathyがこういうことに気づいて自分の誤りを修正し「だからこうだ」と言える能力を持っていること。でもAndrej Karpathyの話はベンチマークについては少し慎重になろう、それはいくらでもハックできるから、だから実際に対話してVibe Checkして他モデルとも対話し、自分の感覚を育てることについて少し話していました。

それでここを見るとちょっと意味深な言葉なんですが、登山道を明確に外れて一般化のジャングルのどこかにいる時、こうした意図されていない瞬間にモデルの本質を最もよく把握できる。何の話か少し曖昧ですが、とにかくモデルの本質を最もよく把握するのは、実際に使いながらベンチマークを信じるのではなく感じるべきだということです。

そしてEveryでも通常Everyは少し早めに使うんですが、今回はそこまで早く使えたわけではないみたいです。Vibe Checkをやっていたんです。翻訳もしておきましたが核心はそれだと思います。育成しているベンチマークセット、つまり準備されたチームだということです。いつどんなモデルが出てもすぐ自分たちをオンボーディングして数日で共有できるほど、モデルの雰囲気や何ができて何ができないかを素早く学習できる準備済みのチームなんだと再確認できました。

でもGemini 3が出た時、周りに聞くといろんな風景がありました。ニュースが出たことを知らない人がいて、ニュースは見たけどニュースだけ見る人がいます。すぐ入力して試せるのにモデルが出たじゃないですか。でも入力してみない人がいて、その次にモデルの長所を語るのを楽しむ人がいて、モデルの短所を語るのを楽しむ人がいるんです。 だからそこでも少し傾向が分かれる感じがありました。それから何も言わないけど、すでにアイデアを得てストレス状態にある人もいるんじゃないかと推測されて

28:06 ロ・ジョンソク たくさんいますね。

28:08 チェ・スンジュン だから何かが出た時の温度差が極端だという感じは受けました。

28:16 ロ・ジョンソク その通りです。ちょうど2種類いる気がします。一つは「どうせもっと良くなるから」と言って、過去にも多くの会社が性急に起業してこのモデルの超人的能力で全部消えた会社がすごく多いので、どうせアプリケーションをやるなら最後まで待ってモデルが完成した感じがした時にやるという人がいて、 二つ目はただこのすべての変化を追う人たち、追いながら無数の成功と失敗をする人たちですが、僕はその2種類の中で勝つ人はあまりに明確に決まっていると思います。 二つ目の人、後者です。明確に。 一つ目の類型は、それがいつ終わるか分からず、これは永遠にexponentialに加速し続けるかもしれないので、そうなると何かを始めるタイミングは来ない、来ないかもしれません。

aistudio.google.com aistudio.google.com

29:11 チェ・スンジュン ビジネスはよく分かりませんが個人レベルでは僕も実はそういう時があって、最初のプロンプトを打つ時いくらでも何でも入力できるのに、一瞬pause、少し止まる時があります。「新モデル、これをどう使えばいいだろう?」と、むしろ止まることがあるんです。でもまず使うべきだと思います。新モデルが出たらニュースを片側で流しながら、もう片側では出ている例をそのままコピペして入れるだけでも使うべきです。

だからその部分を一度押さえたかったんですが、僕が今週タイムラインで見たものの中で印象に最も残ったのはこれだった気がします。これはVibe CheckというサイトをAI Studioで丸ごと作ったんですが、こちら左側では実際これ自体を変えられるようになっていて、コードも変えられます。今見えている、sillyとなっているものがsillyではなくむしろすごく面白くて、voxelが動いているじゃないですか。 これ今Gemini 3が作ったものです。でもそれを形にして動かす、つまり3Dを作るだけでなく、今それをやっているんです。例えば何にしましょう。スケルトンが、スケルトンが走っている場面。 今これをすぐには見ませんが、このサンプルを減らして2つだけにしたらSVGになっちゃいました。voxelにすべきだったので戻しておきます。するとqueueがかかります。あとでチェックしますが、ああいうふうに作られます。

Gemini 3の圧倒的機能: Generative UIとVoxel/SVG生成 29:45

30:54 ロ・ジョンソク これが二つ目のセクションのGenerative UIとつながりますね。

research.google research.google

30:59 チェ・スンジュン これをどうやったのか、これは噂じゃなくて実際に事前利用した人が上げた内容でSVGがすごく良くて、その次に3D voxelをすごくうまくやるというのを知っていたんですが、実際に使うと感覚が違いました。 つまりそこが今示唆するのは、とにかくまだ速度に問題はありますが、こういうfront-endやuser interfaceをあまりにも上手にやるモデルになったということです。何でも作れます。 でもそれをやるために、このブログポストを僕が翻訳しておいたんですが論文もあります。それをやるためのカリキュラムを作って、今website onboarding landing siteなどいろいろ本当にうまく作ります。 そしてまだ全ユーザーに行ってはいないかもしれませんが、これができたんです。ここを見るとVisual Layout Labsが入っています。 だから今これ以外にもエージェントはultra userだけがまだ使える感じではありますが、出ましたね。スケルトンが走っている場面。

32:11 ロ・ジョンソク そうですね。本当にやばい、ですよね?

32:14 チェ・スンジュン これで一度驚けますが、これをどう作ったかなんです。 それをフィードバックしてさらに上手くできる、普通はコーディング程度でverifiableでない領域を今verifiableにしたという話なんです。 視覚的部分、デザイン的部分などについて、品質は人間が最大限手間をかけて作ったものよりまだ低いですが、かなり近づけるのをどうやったかについて書いてあります。ブログと論文に。

32:43 ロ・ジョンソク 方法論がどうだったかは僕らもgeneralには理解しています。そういうnon-verifiableっぽい部分についてもモデルのtraining phaseで、これが良い、これが悪いという報酬信号を作る一種のシミュレータとか、あるいはdecision maker、それが本人モデルかもしれないし、別のpolicy modelかもしれない。

33:07 チェ・スンジュン そのアルゴリズムでやったんです。

33:11 ロ・ジョンソク コンピュータを溶かし込めばできた、という話をしたいわけです。

33:15 チェ・スンジュン それで最後にこの研究の魔法の循環と、今年中頃に発表したものをもう一度引用しているんです。これはbootstrappingするものだ、継続してもっと良くなるということです。これを見てその意味を読むことには、Gemini 3だからこそいろいろ味わう部分がありますが、僕が選んだ一押しはこれです。 これができていて、ここで想像力を働かせると今はまだ時間がかかるんです。これを生成するのにまた1分くらいかかったじゃないですか。 そしてそこそこ良いページを作る時は言っていてちょっと笑えるけど5分くらいかかるんです。5分でできる、5分。ものすごく短いんですが。ははは。

速度超知能(Speed Superintelligence): 100倍速くて安い知能の未来 33:30

33:56 ロ・ジョンソク 本当に笑うしかない世界ですね。

33:59 チェ・スンジュン もしNick BostromがSuperintelligenceという本で言っていた速度超知能、つまりこのくらいのGemini 3の現在の知能水準や遂行能力で速度だけ10倍または100倍速くなったらどうなるか、ということです。これも想像ポイントの一つなんです。 そして価格が下がれば、100分の1で100倍速くなれば、100分の1価格で100倍速くなれば、これが不可能なのか、そういうことを想像するようになって、もしそれが近未来に可能になるなら、知能がこの程度で止まってもものすごいimpactがあるんですよ。

34:35 ロ・ジョンソク そうではあるんですが、僕らが今実はこのGemini 3やAIモデルがやってくれていること、代替していることは、実際には僕らの認知能力だと思っていた仕事を代替しているので、僕らはその中で不思議に感じたり不安に感じたり、こういう僕らの観点で判断しているんです。 でもこの判断のレンズを、スンジュンさんと僕がこうして向き合っている段階を超えて、ずっと空の上まで上げて、歴史的観点で俯瞰してみると、こういうことは歴史的にとても頻繁にあったんです。

一つ目は農業でもありましたし、その次に産業革命の織物、textile industryでもありました。ただ農業の例で言うと、ご存知の通りほぼすべての産業が農業にあった時代がありましたよね。でも今は全人口の2~3%程度だけが農業に従事しているはずです。

その時全人類が農業に従事していた時は、毎日会って話すことがスンジュンさんと僕が話しているのと同じで、こう種をまいたら良かったとか、何をしたら良さそうだとか、あっちの町で誰かが肥料を作って収穫量が増えたとか、糖度が高いとか、そういう話が全部日常だったはずです。でも実際は農業革命、産業革命、機械革命のためですが、機械が畑を代わりに耕し、化学が発展して肥料が良くなり、そうやって産業で起きたことを考えると、その仕事に従事していた人はみんな職を失いました。そして全部企業化されました。農産物価格はものすごく下がり、そのものは非常に豊かになりました。するとその産業に従事していた人の観点では持っていた生産手段を全部失ったけれど、人類全体で見ると大豊穣の時代に入ったんですよ。飢え死にする人はいません。もう人類史で初めて飢餓を心配するのではなく、GLP-1でどう痩せるかを心配する、そういう時代に入ったんです。

今の僕らにはあまりに当然の世界ですが、200年前、150年前の人の観点から見ると理解できないんです。つまりこの程度のmagnitude、order of magnitudeの変化で僕らもこの世界を見ないといけないということです。そうすると終わるんです、ただ。

歴史的観点: 農業・産業革命と認知労働の代替 34:40

37:11 チェ・スンジュン 非線形じゃないですか。線形じゃなくて非線形じゃないですか。だから200年かかったことが今は

37:15 ロ・ジョンソク 2年で起きるでしょう。

37:18 チェ・スンジュン こうなるということですね。

37:19 ロ・ジョンソク はい、だから200年間で起きたことが今後2年間で起きると見るのが、むしろ正しくて、

37:25 チェ・スンジュン ある領域では、すべての領域ではないかもしれないですがそれでも

37:30 ロ・ジョンソク verticalごとに違って来るでしょうが、実際モデルの発展と彼らが食べているドメインを見ると、実際ただpure information領域にあるものが一番早く終わっているじゃないですか。verifiableなドメインにあるものはモデルがcomputing powerを投入して自分でsearchして終わらせる世界になっているので、僕は会社の中でも今後2年は20年だと見ないといけない。1か月は1年だと思って、今後20か月を20年のintensityで狂ったように必死に生きれば、僕らは次の世界で答えを見つけるし、そうでなければ丸ごと捨てられるということです。それともう一つ面白いのは農業の場合はとにかく1世代は捨てられましたが、産業革命も1世代から1.5世代程度、農業は2世代程度が捨てられたけれど、人類はみんな次の領域へ移ったじゃないですか。 それで今サービス経済などを築いたんですが、これはもうAIは人間の最も固有で最も偉大な能力である認知能力、cognitive intelligenceを消してしまうので、僕らはどこへ逃げるべきかを…

38:45 チェ・スンジュン そして新しいボトルネックが現れていると最近すごく感じるのが、今日ここに内容としては入れていませんが、モデルを使う時、最近僕は並列でよく使うんですよ。同じプロンプトでも複数回、複数セッションや複数モデルにもやるんですが、すごく疲れるんです。

そして人はcontext switchingが簡単じゃないですよね。でもモデルはセッションを一つ新しく開けばいいだけなので、それをmanagingすることへのかなり大きなボトルネック、それから今よりさらに速度が速くなって、より多く、必ずしも量が多い必要はないですが、もっと圧縮された知識が入った内容をものすごく速く生成した時、これをorchestrationするのは結局人間がある部分ではまだやらないと困るので。すごく速く疲れるんです。 だから別の種類のボトルネックが今起きていると感じます。

39:40 ロ・ジョンソク 僕らが実際に処理して受け取る情報や生産する情報、それから管理監督しながら意思決定しないといけない情報量も実際には急増している状態なので、僕も本当におととい昨日起きたことがコンテキストから全部消える不思議な経験をするんですよ。でもおととい何があったか全く覚えていないです。

40:02 チェ・スンジュン 最近あまりにも頭を使わないといけないです。ずっと読んで、ずっと何かを実行させて、managingして、やらないといけないので疲れます、本当に。

40:11 ロ・ジョンソク だからこのタイムギャップを先回りすることに何か機会があるという考えでこんなに頑張って生きているんですが、少し予定された敗北感もあります。これをやる意味があるのか、今日頑張って作った僕のharnessが3か月後にはモデルがやってくれるのに。

40:29 チェ・スンジュン オーケー、ひとまずそのくらいで

40:33 ロ・ジョンソク 答えが出せないので進みましょう。深く入りすぎました。

40:37 チェ・スンジュン それから面白いのが、僕もタイムラインで見て実験してみたんですが、HWPファイル、バイナリHWPXじゃなくてHWPを渡したら読んで再フォーマットしてくれました。これどういう意味ですか?

HWPファイル認識機能が示唆するデータの移動 40:40

40:54 ロ・ジョンソク 韓国のすべての政府と教育関連データも、これで全部AIに入るということですか?

41:00 チェ・スンジュン そうです。つまりまだHWPファイルを書くことはできないです。それはもう少し難易度が高いんですよ。でもHWPを読むのはすでに良いライブラリがあるんですが、これをどうやったかは分からないものの、韓国向けに特別対応した可能性は大きくないのに、とにかく入れて出てきます。コードが途中で実行されるような感じは見えず、ただモデルがやります。なぜこれをやったんでしょう?

41:29 ロ・ジョンソク どうでしょう。最近訴訟でHWPを使うこと以外、HWPエコシステムとほぼ親しくないので。

41:38 チェ・スンジュン 僕もすごく親しくなりたくない…

41:41 ロ・ジョンソク 仕方なく使うしかないですね。

41:43 チェ・スンジュン はい。でも韓国は多くのものがHWPにあって、それがある意味で囲い込みをしつつ安全網を作ってくれる部分もありましたが、今は情報が全部そちらに流れ込むことになりそうですね。

41:58 ロ・ジョンソク 僕の考えではこういう形の装置が、OpenAIのアプリSDKも同じですが、とにかくプラットフォーム事業者の立場では外の情報が自分たちの中に入ってくるのは無条件で利益なんです。 そして入ってくる情報はエネルギー準位が全部違います。ゴミデータもありますが、ユーザーが自分のintentionをああやってチャット欄に書き込むのは、たとえ1行でも、それがウェブページ10ページと同じ情報量を持つことがあるんです。

42:36 チェ・スンジュン 密度がはるかに高いんですよね。

42:37 ロ・ジョンソク はるかに密度が高い情報なんです。だから会社内でこういう情報処理をしていると、以前「Right Questions Are All You Need」というエピソードで言ったように、 一番重要なのは本当に人が何を望んでいるか、intentionを、あれ何でしたっけ? 吐き出す人が直接打つプロンプトのエネルギー量とそのクオリティ、これが一番重要なんです。 だからそれだけを集中的にmanageするフレームワークも作るようになりますが、大きな意味では僕らはGoogleとOpenAIに、こういう貴重でエネルギーのあるトークンを全部集めて渡しているんです。

43:14 チェ・スンジュン とにかくこれもまた印象に残った場面でした。それから僕がちょっと、僕もまだものすごく深く掘れてはいないですが、驚いた瞬間がいくつかあります。最初に作ったのはこれだったんです。だからGemini最初のプロンプトをGeminiのweb appでやったのかAI Studioでやったのかはもう記憶が薄いんですが、AI Studioを選んだのはそこにすでに多くの機能があるからです。つまりプロンプトを入れるとspecに変換してくれる機能はGemini webよりAI Studioの方がビルドが強く入っていて、そこで試しました。でも今僕がStrudelというライブコーディング、つまりミュージシャンやメディアアーティストが使うライブラリがあるんですが、それに似たものを作ろうと言ったんです。だから今こうして音楽が出ていますが、それがここに書いたコードで生成されるんです。今これで数値をリアルタイムで変えるとすぐライブコーディングになるんです。

でもそれをここでプロンプト入れてlo-fi hip hopみたいなのを作ってくれと言うと、これが今ほぼfew-shotで作られたんです。するとこれについて、このコード、これは一種のDSLなんです。でもStrudelで使うものではなく似たものをこいつが作りました。そして音楽が、速度が今遅いですが、これを0.5… これ周りの作家さん、メディアアートをやっている方々に見せたら驚いていました。今チャット、ライブコーディング、可視化、ただ出てきました。

意図がそのまま現実へ: コーディングと創作の障壁崩壊 43:20

45:18 ロ・ジョンソク そうなんですよ。これが重要なんです。実際以前は、あるintentionを持っていたらそれを現実にする能力でその人の能力を評価していたじゃないですか。でも僕らが何十年も投入して積み上げてきたその能力をこいつが消してしまったんです。

45:38 チェ・スンジュン だから少し考えた瞬間「できそうだ」という感覚が最近少し生まれています。モデルによって違いますが、Gemini 3.0級では自分が何か考えると何かできそうだ、この感覚が少し形成中と言いましょうか。回す前に分かる感じです。

45:55 ロ・ジョンソク そうです。だから僕は何かを作るべきだと思ったら、最も本質的なdescription3行を書くことを頭の中で回します。風呂で回し、シャワーで回し、道を歩きながら回して3行程度ができたら、そのエネルギーが最も高い3行を「これClaude Codeに入れるからspecに膨らませて」と最上位thinking modelに入れると、そいつがさっと作ってくれるじゃないですか。 自分が投入する3行に入っている情報エネルギーレベルがその時本当に重要なんです。だから僕がそれを、アイデアの本質を作る能力が一番重要になる気がすると言った理由がそれなんですが、 するとspec sheetが非常に高品質に出て、そのspec sheetをClaude Code、harnessを装着したClaude CodeやAntigravityやCodexに投げると、もう終わるんですよ。

46:48 チェ・スンジュン すると出てくるんですよね。

46:49 ロ・ジョンソク 出てきます。

46:50 チェ・スンジュン 最初に初期プロンプトを考えて膨らませるプロンプトを回すんですが、そこで追加確認が必要な質問を少し受けて1、2回掛け合いして出てくるチェックリストを回せば出るんです。もちろんできない場合もありますが、多くの場合出ます。

47:07 ロ・ジョンソク そうですね。もちろんそれを持ってproductionするのは別の話ではありますが、それももうすぐ終わる問題ではあります。productionのDevOpsもそれ専門のやつをうまく付ければいいゲームですから。

x.com x.com

47:24 チェ・スンジュン とにかくこういうのをやってみて、それからYi TayがまたGoogleに戻ったじゃないですか。そこでYi Tayがプロンプトを少し上げていたのでやってみました。それもここで一度見ましょうか。こうやってMinecraftに似たものを作るんですが、Yi Tayは1段落しか書いていません。秋に落ち葉が落ちる無限に広がる空間を作れと言ったんですが、僕は1回ではできなくて、少し音まで付けて歩くたびにドングリみたいなものを拾うと音が鳴るようにただ出てきました。 とにかくこういうのがたくさんあるのがその「Vibe Check」、さっき見せたAI Studioのbundleです。

物理学可視化の事例: Nano Banana Proの活用 47:30

それがあって、それからこれもタイムラインで物理学者ハン・ジョンフン教授のものを見て、図を、こういう量子力学関連っぽいもの、僕は理解はできませんが上げてくれたのを見て、これは昨日なんですが、Nano Banana Proにこれを入力したらどうなるだろうと思ってやったらこうなりました。 これが少しこう離散的に進んで計算経路が出てくる、何かそういう方面でした。

48:40 ロ・ジョンソク 僕はこのnotationを全部読めないんですが、これ正確に合ってるんですよね?

48:45 チェ・スンジュン つまりハン・ジョンフン博士がコメントでこれ合ってると、しかもすごくきれいに描いてくれたので本を書くのに少し役立ちそうだとフィードバックをくれたんです。でもコメント欄で、そんなふうに離散的にpathがきれいにarcになるのではなく、別の学者がかなりジグザグでとにかく行ったり来たりしながら進むのが正しいんじゃないかと言ってそのフィードバックをくれました。 そしたらNano Banana Proがこう描いてくれました。だからこれを入力しました。どこに入力したかというと、AI Studioに。 それで出たのがこれです。もちろん図だけ入れたのではなく、その対話の文脈まで渡したんです。だから今auto-run、auto-runやステップを一回やるとベクトルがこう離散的に進んでますよね。

49:34 ロ・ジョンソク うまく進みますね。

49:35 チェ・スンジュン これ実は量子誤り訂正に関連する何かだった気がします。でもそれの可視化が今インタラクティブになりました。これが昨日から可能になったことです。Nano Banana Proのユースケースは今すごく多いんですよ。良いものが。でも断面的に、インフォグラフィックとかそういうものもありますが

50:01 ロ・ジョンソク 「昨日から可能になったことです」の意味は、昨日Nano Banana Proがリリースされましたという意味ですよね。

50:10 チェ・スンジュン Nano Banana Proを使ってやった二つ目のプロンプトだったんです。やる前に「できるはずだ」という確信がありました。これがここに行ける、その次にこれがここに行ける。

50:27 ロ・ジョンソク それは確信というより、実際にはほぼ99%の確信があったんですよね。

50:33 チェ・スンジュン 99%まではいかないけど、ほぼ「できる」、まあ「できるだろう」…

50:37 ロ・ジョンソク 97%にしておきましょう。はい。

50:40 チェ・スンジュン でもこれまだ認識自体がばらつくことはあるんです。それで締めの部分はそのAXについてです。

現場のAIトランスフォーメーション(AX): 幼稚園教育資料制作事例 50:50

50:52 ロ・ジョンソク AIトランスフォーメーション、はい。これ韓国だけAXって書いて、globallyはAXという表現がないみたいですね。

50:58 チェ・スンジュン あ、そうですか? じゃあこれも少し直した方がよさそうですね。

51:00 ロ・ジョンソク AIトランスフォーメーション。デジタルトランスフォーメーションもできてない世界で今AIトランスフォーメーションを強いられている世界です。

51:09 チェ・スンジュン 前回エピソードを通じて、僕が幼稚園をやっていることはもう多くの方が知ったと思いますが、Gemini 3が出てからこれをハンズオンワークショップしないとという考えで何かやってみました。でも僕はYouTubeでは比較的自由に話しますが、その情報量を普通に話すのは実際難しいんです。非常に注意すべきだと思います。なので慎重にケースを作ってみました。

それでこれの場合、この例が良さそうですね。先生たちが家庭に送る教育関連の1〜3段落程度の文をAI Studioに入力して、それをインタラクティブコンテンツに変えてみようと1〜3行プロンプトしました。するとここでは音の物性実験、つまり様々な音を子どもたちが探究できるよう支援する短い話があったんですが、その写真を見てこれを描いてインタラクティブにして、それについて問いを交わせるところまでがワンショットで出ました。だからそれを全クラスのケースで僕が作ったんです。これが他人の文脈だと響きにくいことがあるんですよ。だから自分がやっていたことがどう変化するか、増強されるか、あるいは悩みのポイントが生まれるか、そういうものを先生が書いた文章から引用しつつインタラクティブコンテンツを作りながら意味を押さえることを見せましたが、驚きはしたけどぴったり刺さる感じではまたなかったです。

それで何をもっとやるべきか。僕のAIトランスフォーメーション戦略は最初は1 on 1をやったんです。集合教育で集まって短く講義することもできますが、幼稚園は本当に忙しいので時間を取ることに慎重でないといけません。だからまずは自分の時間を使って1 on 1をして、その次に僕の感覚を少し育ててから何をすればもっといいかというところなんですが、数日後、いや2日でNano Banana Proが出たんです。これはいけるという感覚が来ました。Nano Banana Proでやったのが、あ、上にありますね。これを見ると、ここもある遊び記録についてなんですが、インフォグラフィックを作るのももちろん一度でその話についてインフォグラフィックを作るのもできましたが、先生たちにより響いたのは普段記録を体系的にうまく残しておけば、こういうふうに意味を押さえたスライドが生成されるのはこれをそのまま使うためではないにせよ、かなり助けになる気がするというフィードバックを引き出せたことでした。

54:17 ロ・ジョンソク PowerPointがワンショットで出力される世界です。

54:22 チェ・スンジュン そうですね。でもここで面白いのは僕がしたプロンプトも見られることです。だから「教師の意図と進行過程およびその意味を紹介するスライドデッキを作って。子どもたちのある話を傾聴して教師がどう再構成したかが見えるといい。」1段落程度のものなんですが、これに対してフィードバックを受けると、もちろん画像は生成画像なので実際の教室画像に置き換えるともっと良いですが、かなり意味ある内容が入っているというフィードバックをもらいました。

だからこれは全体会議でできたんです。2段階あって、一つは最初の1 on 1、その次に僕がユースケース、1 on 1で得たフィードバックをもとに、もう少し響くユースケースを全体向けに一度紹介したこと、 その次にまた1 on 1をしました。短い時間ですが、それについてどんな印象だったか、難しく感じたかどうかを聞いた時には、もう少し率直な話を聞けました。それを今週やったんです。これが出て、 しかしどんな懸念事項があり、それに対して組織の構成員がどう考え、これを学べるかという経路を探る作業を素早く進めてみた気がします。 そして先生たちは開発者ではないので、何かこの認識転換が必要なこと、そういうものについて僕がメモしていたものをただ貼り付けておいたんですが。 これは大変ですがこの方法が実際簡単にスケールアップするわけではないけれど、また意外と面白くて誇らしい部分がありました。だからこれは僕のアプローチですが、これをほぼゼロデイでできたということです。意味あるユースケースを見つけて。

56:22 ロ・ジョンソク はい、その通りです。十分なコンテキストを蓄積した人がある意志の方向を持ってボタンを押せば、魔法のようなことが目の前にすぐ広がるというのをそのケースで見せているわけです。

56:38 チェ・スンジュン そうです。でもそれをやるには対象と言うべきか、いずれにせよその変化を引き出したい人たちの文脈に合わせて入っていかないと、インパクトが出にくいというのが学びのポイントです。

56:49 ロ・ジョンソク その通りです。スンジュンさんも今この話をしながら、スンジュンさんとAIの間でのボトルネックはないんですよ。いつも今ほぼ話しているテーマは僕とAIの間ではなく、僕と他の人の間のボトルネックが問題なんです。 たぶんほとんどの会社や組織でも同じでしょう。だから会社内にスンジュンさんのような役割をする一人のチャンピオンが必要で、その次にそのチャンピオンの足を引っ張る人がいてはいけないんです。 もしチャンピオンが無能なマネージャーの下にいたら、その無能なマネージャーの能力分だけたぶん後退します。 だから意思決定層にいる人たちがこういうダイナミクスを明確に理解し、組織のセッティングもできないといけないんですが、そのためには本人にこれが何かという考えとある枠組みが必要なので またスンジュンさんが初期に言った話に戻ると、実際に使ってみて本人がハンズオンしながらある感覚を持っていないと、これはニュースだけ見てこうすればいい、ああすればいいと言えるものではない、という話をしたいです。

58:04 チェ・スンジュン そうですね。でもすべての組織が開発組織ではないので、もう少し一般化しようとする観点では健全な摩擦は僕は役立つと思います。 さっきも先生たちが最初にすぐ反応してくれなかった時、もちろん僕の心の中では少し失望があるかもしれないですよね。 でもそれならどうすればもっと届くか、より良いユースケースは何かを考えることもできるし、

僕の観点ではなく別の観点、例えばアナログ的アプローチとか、教育で本当に忘れてはならない重要ポイントに少しブレーキをかけてくれる人がいる時、僕らは開発組織ではないのでより意味ある方向、教育で意味ある方向へ行けるので、健全な摩擦は重要だと思います。

58:48 ロ・ジョンソク いいですね。その話とこのAntigravityがすぐつながります。

Antigravityレビュー: CLIの障壁を下げるAgenticツール 58:50

58:53 チェ・スンジュン Antigravity、ロ・ジョンソクさんがすごく驚いたという話を聞きましたが。

58:58 ロ・ジョンソク いや、すごく驚いたというより当然できると予想していたことですが、実際UXもうまく作っている気がするし、その次にClaude Codeがターミナルに縛られているので足りなかった点、そしてAntigravityを使ってみながらコマンドラインCLI、ターミナルを開くこと自体が一般の人、エンジニアではなかった人にとってどれほど大きな障壁だったかを改めて感じます。

HomebrewでnpxをインストールしてNode.jsを入れること自体も、やったことがない人には大きな障壁ですが、このAntigravityをダウンロードしてただインストールして起動し、残りを中のagentが勝手にやるという、その小さなハードルを変えるだけでもこれはかなり意味があるなと思います。

59:50 チェ・スンジュン だから僕も今すごくそれらしいものは作れていませんが、これはいけるなというポイントがあったんです。だからterminalだけでなく一般ユーザーはterminalでのedit、編集が簡単でないのがすごく不便なんです。行ったり来たりできないこと、ショートカットだけでやらないといけないこと。

1:00:12 ロ・ジョンソク それとフォルダの概念、フォルダのprojectがサブフォルダにどんな形で並んでいるか、engineer出身には慣れていても、そうでない人にはそれ自体が非常に不慣れな概念で

1:00:24 チェ・スンジュン でもweb appやこういうところではできないbatch作業が日常にすごく多いんですよ。ファイルを一度にまとめて変換するとか、持っている画像や映像を織り込んでコンテンツを作るとか、こういうのが簡単にできる仕事じゃないこともありますが、もうできそうだと思いました。

1:00:46 ロ・ジョンソク それとAntigravityやClaude Codeは、僕はClaude Code系の方向がある気がしていて、このAntigravityとかCodexとか、この2つの方向性が少し違う気がするんです。 Claude Codeは感覚的に操縦桿がすごく多い宇宙船のcockpitに座る感じで、CodexやAntigravityはただTesla宇宙船に座る感じ、

1:01:15 チェ・スンジュン ずっとagenticですよね。

1:01:16 ロ・ジョンソク ずっとagenticですよね。だから自分のcontrollability、制御可能性を高めたいengineer出身にはClaude Codeの方がずっと楽で良く感じるでしょう。だから実際engineering communityはそこにskillを付けてagenticなguardrailとか、そういうものをMDファイルやプロンプト塊をつなぎ合わせる形で、またそれ自体がパッケージ化されている場合も多いんです。

そしてそれに安心感を覚える。でもAntigravityやCodexは実際そういうものはすごく、あまりに官僚的だ。なぜならお前がそういうprocessを提案するその能力すらモデルの方がはるかに知っているはずなのに、knowledgeの面でなぜわざわざteam processなどを制限するのか? 僕らの方がはるかに優れているのに。

この方向が2つに分かれている気がして、僕も最初はClaude Codeをすごく楽に感じていたんですが、agenticに勝手にやってしまうものに少し不便さを感じて、Claude Codeで多くのharness、TDD spec先に書かせてtest書かせてtest通ったものだけ実装させるとか、そういう形で強くharnessをかけていたのをこの2日でほぼ全部外したんです。 ただAntigravityにエネルギー準位が高い、自分が本当に作りたいあるessenceをうまく供給する方がずっと得だ、という方向にこの2日で考えがまた一気に変わって

1:02:50 チェ・スンジュン でもこういう話を5月にCodexが出た時、OpenAIでその豊かさの心、abundance mindという話で

1:02:59 ロ・ジョンソク abundance mindset.

1:03:01 チェ・スンジュン はい、abundance mindset、とにかくそれを話していたんですよ。でもその時は温度感がぐっと

1:03:07 ロ・ジョンソク ぐっと来なかったですよね。

1:03:08 チェ・スンジュン でも今は「ああ、それか」という部分があります。

1:03:12 ロ・ジョンソク その通りです。AntigravityがClaude Codeでぎこちなく感じていた部分、少しIDEと中途半端に融合して感じる不便さがあったんですよ。

ただwindow一つ分だけ付けた感じでCursorレベルでeditorときれいにくっついている感じではなかったので、むしろterminalとEmacsを使う方を選んでいたんですが、正直僕はCursorの熱心ユーザーではないので、今Antigravityが与えているこれがCursorにすでに実装されている可能性もあります。 僕、Cursorはほとんど使わないんです。 有料課金したこともないので、そう感じるただの衝撃かもしれませんが、Claude Codeのぎこちなかった不便さがここにすごくうまく入った気がして僕は楽でした。

1:04:03 チェ・スンジュン そうですね。それにtestするのがすごくなかったですか?

Playwrightなどでやるんじゃなくて、ただChrome extensionを一度インストールさせた後はすぐブラウザ、たぶんCDP使ってる感じですが。Chrome DevTools Protocolを使ってすぐボタン押してフロントエンドでuser testして、それについてconsoleにlogが出るか見ながら継続して直していくので、できないものも多いですがうまくいくものが一気に増えました。それに録画してましたよね。

1:04:35 ロ・ジョンソク はい、録画してartifactとして全部残してくれます。test通過、失敗したケースも全部見せてくれて そしてそういう意思決定過程も非常にagenticにうまく分岐しうまく処理するので、そういう判断はモデルがはるかにうまくできるから 僕はさっき言ったようにClaude Codeベースで何かharnessを継続して強化し中でskill setを入れていくのは何の意味もない。その方向性はただ早くUターンするのが正しいという考えになっています。

1:05:09 チェ・スンジュン そうですね、モデルはGeminiだけど結局harnessはWindsurfの核心人物たちが行って、Cascadeという名前がちらっと出ていましたよね。

1:05:19 ロ・ジョンソク どんなモデルが出ても、どんなagentが出てもharnessは継続してあるんです。harnessという言葉は特定の階層を指すのではなく、どんなlayerができてもそのlayerの上で抽象化することを僕らは継続してharnessと呼ぶので、harnessは永遠です。ただそのharnessがする役割とlayerの準位は継続してabstraction方向、上向きに上がっていくので だから今回Antigravity、Windsurf創業者が出てきて10数分のdemoでも使っていたプロンプトが、ただ自分が望む目的物を最も明瞭で簡潔に説明することが重要であって 中で何が起きるかは重要ではない。私が全部勝手にやるから。

1:06:14 チェ・スンジュン ひとつカチッと 넘어갔어요. そういうふうにちょっとverboseに何かするというより、言いよどむより核心を言えば勝手にきれいでセンスよくモデルがやるというのがGemini 3.0で少し打ち出している部分のようでした。

1:06:27 ロ・ジョンソク でも確かな方向性はモデルのcapabilityは継続して増加するし、その次に僕らがこのAntigravityやClaude Codeに残すこの作業のtrail、成功した作業はdatasetに入るし、成功しなかったものは捨てられる。だからこいつがexponentially発展するtrendは継続して加速するじゃないですか。

だから僕らはこう判断するのが正しいです。このengineering関連を少し早く知っているので、より良いharnessを作って2~3か月の優位を取れるけど、その世界はすぐ終わるのでharness自体を掘るengineering的な掘り方には努力を少しずつ減らすべきです。 結局は現実にある問題を見つける能力、それを定義する能力、昔ならconsultant、business consultant、McKinseyの人たちが来てやっていたこと。

エンジニアへの提言: ツール開発より問題解決(Business)に集中せよ 1:06:30

1:07:29 チェ・スンジュン でも今少し外挿してみると、問題解決能力を持つことに対して問題を保有したり見つけたりした方が非対称じゃないですか? そっちの方がずっと有利じゃないですか?

1:07:41 ロ・ジョンソク つまり今スンジュンさんが言ったのが核心で、問題を保有している人は非常に多いですが、AI世界がこう変わったから自分の問題をこう簡単に解決できるんだという観点転換が、ほとんどの問題保有者、problem holderに起きていないんです。 でもこれから1~2年でそういうcaseをたくさん見るでしょうし、あえてビジネス的に解釈するとこうです。

例えばその問題の保有者、どこか中堅企業にしましょう。彼らはその問題を解決する伝統的方式のために非常に高価なB2B SaaSなどに、例えば年100億を支払っていたとします。このAIをやる人たちはその100億を受けながら1社が雇われ、30人50人、保守まで入れると100人単位のmembersが入ってやっていた仕事を、ここではたぶん5人程度でやるんです。

5人程度でやるようになると彼らは100億でやっていたものを30億で請求するでしょうが、実際入る原価はモデル能力値のため5천만 원にもならないんです。だからこの5人には29억 5천만 원のmarginが生まれ、向こうの非効率の塊だった産業は100億の産業が丸ごと消えることが起きるでしょう。

ではこの 일이いつ起きるか。100億を払っていたproblem holderがこう解決できる、まるでPalantirのような会社を見つけるか、あるいは自分の競合の誰かがああいう方式を使ってコストを大幅に減らし、はるかにdynamicなsoftware環境を構築したのを見た瞬間、変化が激しく起き始めるでしょう。

つまり今僕らが行くべき正しい方向は、その問題を認知できていないその問題holderとAI世界の間に存在するtime gapとdomain gap、AI領域ではない極めて人間的な部分に集中すべきで、そこにほとんどのvalueが集まっていると思います。

1:09:54 チェ・スンジュン 僕が聞いて感じるのは、time gapのシグナルは結局fast followerができるbest practiceが現れるその時点ですね。その後は「できるんだ」を知っているからできるわけですよね。

1:10:11 ロ・ジョンソク そうです。そうなればまた需要者と供給者が増えて市場の別の均衡点へ行くでしょうが、人はそういう結果だけ見てこうなるああなると予測しますが、いつも富を握る人はその転換期に入り、その混沌を整理して何らかの形でmarket leadershipを確保する人が必ず現れるんです。 つまりその区間が重要で、その区間が今後2年間に起きることだから、ここに今準備していかないといけないんです。 だからその長い話を短くすると、ソフトウェアエンジニアにできる話を完全に圧縮して言うと、今Claude CodeやAntigravity、これをうまく使ってharnessをうまく作る能力を開発するのはあまり重要ではない。

その能力をある程度持っているなら、問題を持つ人を早く見つけてその問題を解決し、自分が構築したworkflowがその人をlock-inし、そこから継続的にretentionが起きるか、あるいはそこからscaleが見えるか、そういう人間的区間に行く方がはるかに重要です。 もっと直接的に言えばソフトウェアエンジニアであることは早く下ろして、早く事業家マインドへ転換する、たまたまAntigravityとClaude Codeを少し早く使った事業家の観点でアプローチするのが今は最も正しい方式だと僕は定義しています。今の時点では。

1:11:54 チェ・スンジュン 結局は逃亡者連合の話に流れていくタイミングではありますね。

‘逃亡者連合’集まりの案内 1:11:55

1:11:58 ロ・ジョンソク その通りです。では逃亡者連合の話ですが、今収録を土曜日にしていますが、たぶん今日の午後に逃亡者連合へ僕がメールを送るはずで、 メールを送り、すごく良い方々がたくさん応募してくれて、その中にproblem solverと、つまり問題解決者と問題を持つproblem holderが混在しているので、holderとsolverが一度会って話すそういう場は必要だろう、 オフライン形式でもオンライン形式でも、それが逃亡者連合の進む方向性ではないかと思います。

1:12:36 チェ・スンジュン するとこの映像がpublishされる頃にはすでにnoticeが出た状態で

1:12:41 ロ・ジョンソク 出た状態でしょう。たぶんそうなっていますね。

1:12:44 チェ・スンジュン それでは今日の最後は、僕らなりにポッドキャストの利点が似たことを話していても、僕らメンバーのキム・ソンヒョンさん、ロ・ジョンソクさん、キム・ユジンさん、僕を含めて別の観点も持っているじゃないですか? だからこそリスナーの方々にアピールする部分があると思うんですが。 今日も対話しながら感じましたが、今の現象ははるかに高次元的なもので、その影であるmanifoldを見るのさえそれ自体が高次元なので、多様な角度で見ないといけないと思います。

クロージング: 激変期における多様な観点の重要性 (Syncretism) 1:12:45

1:13:21 ロ・ジョンソク そうですね。観点によって像が全部違って結ばれている

1:13:25 チェ・スンジュン だからこそこの風景は固定されているのではなく変化していて、自分がエンジニアの観点で見るか事業者の観点で見るか、その移動経路によっても風景は違って見えるし、だからそういうものを複数人で見て一緒に話してこそ、より密度の高い情報を得られるんじゃないかという推測をします。 それが今この同時代なんですよね。 その時ひとつ提言すると、互いに異なる価値観があってもそれを排除するよりSyncretismという用語があるんですよ。

それは少し違う意見や信念を持っていても、ある状況により大きな敵がいるとか、より大きな意味がある状況ならいくらでも協力できる、一つのかごに入れられるという観点なので、僕はtechの加速について展望することと慎重な人たち、こういうものをこうも見られる、ああも見られるということがコミュニケーションされればもっと良い状況ではないか、少しnaiveな考えかもしれません。 なぜなら本当に信念が違うと、実際に一緒にいるのが難しいですから。

1:14:40 ロ・ジョンソク はい、その通りです。でも僕らはunlearn、learn、学んだだけ速く捨てることも重要だと言っていますが、少し前まで流行っていた用語に「꼰대」があったじゃないですか。 観点が一方向に固まり他の観点と妥協しない人を「꼰대」と呼んでいましたが、今はその人たちが最も危険な世界になりました。素早くplasticに、まるで子どものように

1:15:09 チェ・スンジュン 脳可塑性ですよね。一種の

1:15:11 ロ・ジョンソク はい、学ばないといけない。だから僕は前回エピソードでスンジュンさんが子どもの教育のために何をすべきかと言った話から、逆に組織でのinsightも多く学んだんです。みんなが幼稚園生になったような感じがします。

1:15:27 チェ・スンジュン そうですね。それについてまた考えることは多いですが、今日はすでに十分長くやったので

1:15:31 ロ・ジョンソク 長くやったのでこの辺で切りましょう。

1:15:35 チェ・スンジュン 今日も面白かったです。

1:15:36 ロ・ジョンソク はい、スンジュンさん、今日も多くの教えありがとうございました。

1:15:41 チェ・スンジュン はい、ありがとうございました。