2025年 5月 の投稿一覧

生成AIと科学研究(2)

_この深層学習モデルである「トランスフォーマー」をベースとしているシステムは、日本語文章入力に対してその次の文章を予測して返すことの反復で、学習時:文章の後半部分を隠して1つ目の単語を予測するクイズの反復、活用時:入力文の様々な個所に着目しながら後に続く自然な文章を出力する、という構造を持っているようで、ChatGPT-3では45テラバイトというネット上のあらゆる文章を対象としてデータを学習しているとのことです。(出村政彬&松尾豊、ChatGPTの頭の中をのぞき見る、別冊日経サイエンス、pp.14-24、2022年)
_そして2024年オープンAIの論理的推論を得意とする大規模言語モデル:LLM「o1」の登場により、「じっくりと考える」仕組みを取り入れることに成功(応答スピードは低下!)し、博士号取得者を上回る能力を持つこと、「思考の連鎖」をモデル内で生成する(自発的に「報酬」と「ペナルティ」を課すことで「どのような推論プロセスを取るのが望ましいか」を学習する?)ようです。(吉川和輝&椎橋徹夫、大規模言語モデル「思考力」で進化、科学者に迫るAI 大規模言語モデルの思考力~発見を担うのは誰か、別冊日経サイエンス、pp.34-41、2025年)
_そして我々研究者と同じように「論文を自動で書くAI」が、2024年Sakanaが「The AI Scientist(大規模言語モデルの組み合わせで構成)」を公開し、「概要」「導入」「数式手法の適切な生成」「手法の定式化」「独自の図の自動生成」などまで行っています。
_人間の介入とAIの自律性(「科学の道具としてのAI」か「科学者としてのAI」か)の技術課題としては、再生される研究の「質」、AIの自律性、実世界とAIの相互作用が必要ですが、現在のところ各種の学術機関は「AIはツールであり、論文の書き手は人間であるべき」との見解を取っているようです。AI研究者の高木志郎は、「集合的な認知プロセスとしての科学」を数理モデルとして記述する試み(京都大学・谷口忠大)や科学全体を「メタ」としてとらえる試みを提言しています。(高木志郎&丸山隆一、研究できるAIは科学をどう変えるか?、別冊日経サイエンス、pp.48-55、2025年)
_一方生成AIが生み出す「幻覚(ハルシネーション)」と呼ばれる現象も指摘されています。一つは「クローズドドメイン(記事の要約でその記事になかった情報を付け加える)」で、もう一つは「オープンドメイン(入力した特定の文脈を無視して全く間違った情報を提供する)」で、基本的にはGPTの「学習不足」に起因すると考えられています。(松尾豊&杉本孔明、生成AI が生み出す「幻想」と呼ばれる現象とは?、Newton別冊:ChatGPT徹底解説、pp.116-117、2023年)
_現段階の生成AIと科学研究との関係は「科学の道具としてのAI」と「身体性を持たないAI」という制約から抜け出せてはいないようです。また、GPT-4からは内容が「非公開(=商業利用?)」となっているのですが、「安全性確保のためにも透明性が重要(サンタフェ研・ミッチェル)」との指摘もなされています。(G.マッサー、オウム以上フクロウ未満 生成AIの思考力、別冊日経サイエンス、pp.30-33、2022年)
_将来的には、アバターなどを通してAIが身体性を獲得する時代が来て、「あれもありますこれもあります、そして問題はここです・・」というレベルまで進化する「汎用人工知能(Artificial General Intelligence:AGI)」が誕生するものと思います。しかし、現段階ではやはり科学研究の担い手は人の頭脳であることは否めないようにも思います。(山崎健・スポーツ科学研究所所長)

生成AIと科学研究 “あれもありますこれもあります” vs “ 問題はここです” ?

_2022年に公開されたオープンAIの “ChatGPT” が話題になっています。現在利用できる同様の「生成AI」は、マイクロソフトが “Copilot” をグーグルは “Gemini”を公開しており、それぞれの特徴(アドバンス)も異なっているようです。いずれも大規模言語モデルでの膨大なデータの事前学習と深層学習(ディープラーニング)を行い、さらに目的別再学習(ファインチューニング)を行い質問に対応する文章を生成します。
_大規模言語モデルの事前学習では人為的に「正解」や「不正解」のラベルはつけないので、「学術論文」であっても「メディア配信記事」であっても「個人のブログ」であっても同等に大規模学習の対象となります。また、学習されるデータはあくまでもオンライン上で提供されたものでかつ「生成AIに学習されたもの」に限定されています。そして膨大なデータ学習により文書中の単語と単語の位置関係や文法規則、言い回しや文脈、文書を成り立たせる様々なルールやパターンを学習しているようです。ChatGPTなどが採用する「トランスフォーマー(元々は機械翻訳のアルゴリズム)」という機能は、文中の単語(文字)を「ベクトル」で表現して計算して再構成する「自己注意機構」で文脈を理解(単語ごとの「Query(意味関係)」「Key」「Value」(一組で辞書のような役割)で文脈性を保持?)しているようなのです。
_ただし、OpenAIは「人間のフィードバックからの強化学習(RLHF)」を「人手」をかけ取り組むことが必要だったようで、2022年メタ社が開発した「Galactica(AI科学者を標榜)」は差別や偏見を含む文章を生成して批判が殺到し3日間でサービス停止に至ったとの例もあります。(吉川和輝&今泉允聡、AIに人間らしさをもたらした大規模言語モデル、別冊日経サイエンス:生成AIと科学、pp.6-13、2022年)
_一方、吉川和輝は「機械はリンゴを想像できるか」との視点から、今の対話システムは会話の状況がどのような文脈で相手の言葉が出てきたかを考えてはおらず、文字通り「字面」だけの言語処理になっていることも指摘します。(吉川和輝&戸次大介、進化する自然言語処理、別冊日経サイエンス、pp.38-44、2022年)
_東京大学の國吉康夫も、ChatGPTなどは「ある意味人の知能とは非常に違って、言語的な世界に『閉じている知能』である」として「本当の意味での体験はない」「“体”が無ければ知能は作れない」「『身体性』をベースとしたAIを追求しなくてはならない」と指摘します。また、東京大学の池内与志穂は、2つの脳オルガノイドから構成される人工知能が協調して活動するシステムを研究し、オーストラリアのB.ケイガン博士は「バイオインテリジェンス」として脳オルガノイドとコンピュータを組み合わせることでゲーム展開での驚異的な学習能力(70回と数万回)をみせること、人の脳は20ワットほどの電力消費であるのに対してChatGPTは小さな都市一つ分の電力消費であることも指摘します。AIとディープラーニングを研究する東京大学の松尾豊は、ヒトが運転免許を取るまでの時間が驚くほど短いことからも人の脳のデータ学習効率の驚異的な高さを指摘します。(NHK:FRONTIERS 人間の知能は作れるか?、2025年放映)(続く)