Newton10月号
 
  Newton10月号を読みました。

 特集のChatGPTの教科書は生成AIの仕組みについて少しだけ分かった気になれました。

 文章を生成していく際に「今日」「は」と入力されると「天気」「が」など続く確率が高い単語を出力して文章を作っていく。

 スマホの予測変換で「あ」と打つと「ありがとう」が出てくるみたなものなんですが、それだけでは文章にはなりません。

 GPTの仕組みは単語同士の関係性の距離を測り、関係が近いものを導き出すというもの。

 ここからはなんとなくぼんやりしか分かっていませんが、どうやらAIが単語をベクトルに変換して距離をはかって結びつきを見抜き、文脈を理解して文章を生成していくということらしいです。

 あとGPTの学習方法が人間の脳と同じメカニズムの可能性があるというのが、とても面白いなと思いました。

 GPTは最初に大量のネットワークを形成していき、使われない部分はなくしていくんですが、なくしていっても精度は落ちることなく、性能が向上していく。

 このメカニズムが人間の脳のシナプスと似ていて、人間の脳も神経細胞を結合するシナプスが生後1年以内で最大になり、それ以降は減少していくが、学習効率は上がっていく。

 まだ仮説段階らしいですが、GPTの研究によって脳の研究も進んでいき、脳の謎が解明される可能性があるというのは何かワクワクします。

 境問題とは切り離せない

 最後はGPTの進歩が人類にとって必要であっても、地球にとっては負担になっているというのをデータで見せてくれていました。

 GPTが質問50個に答えるごとに500mlの水を必要とするという事実はなかなかショックでした。

 AIは大規模な計算を行うコンピューターが必須になるので、当然ですが電力を大量に必要とします。

 AIだけでなく技術の進歩には必ず地球環境への負荷があるという事実はしっかりと認識しておく必要があるんだなと感じています。

IMG_5474