_この深層学習モデルである「トランスフォーマー」をベースとしているシステムは、日本語文章入力に対してその次の文章を予測して返すことの反復で、学習時:文章の後半部分を隠して1つ目の単語を予測するクイズの反復、活用時:入力文の様々な個所に着目しながら後に続く自然な文章を出力する、という構造を持っているようで、ChatGPT-3では45テラバイトというネット上のあらゆる文章を対象としてデータを学習しているとのことです。(出村政彬&松尾豊、ChatGPTの頭の中をのぞき見る、別冊日経サイエンス、pp.14-24、2022年)
_そして2024年オープンAIの論理的推論を得意とする大規模言語モデル:LLM「o1」の登場により、「じっくりと考える」仕組みを取り入れることに成功(応答スピードは低下!)し、博士号取得者を上回る能力を持つこと、「思考の連鎖」をモデル内で生成する(自発的に「報酬」と「ペナルティ」を課すことで「どのような推論プロセスを取るのが望ましいか」を学習する?)ようです。(吉川和輝&椎橋徹夫、大規模言語モデル「思考力」で進化、科学者に迫るAI 大規模言語モデルの思考力~発見を担うのは誰か、別冊日経サイエンス、pp.34-41、2025年)
_そして我々研究者と同じように「論文を自動で書くAI」が、2024年Sakanaが「The AI Scientist(大規模言語モデルの組み合わせで構成)」を公開し、「概要」「導入」「数式手法の適切な生成」「手法の定式化」「独自の図の自動生成」などまで行っています。
_人間の介入とAIの自律性(「科学の道具としてのAI」か「科学者としてのAI」か)の技術課題としては、再生される研究の「質」、AIの自律性、実世界とAIの相互作用が必要ですが、現在のところ各種の学術機関は「AIはツールであり、論文の書き手は人間であるべき」との見解を取っているようです。AI研究者の高木志郎は、「集合的な認知プロセスとしての科学」を数理モデルとして記述する試み(京都大学・谷口忠大)や科学全体を「メタ」としてとらえる試みを提言しています。(高木志郎&丸山隆一、研究できるAIは科学をどう変えるか?、別冊日経サイエンス、pp.48-55、2025年)
_一方生成AIが生み出す「幻覚(ハルシネーション)」と呼ばれる現象も指摘されています。一つは「クローズドドメイン(記事の要約でその記事になかった情報を付け加える)」で、もう一つは「オープンドメイン(入力した特定の文脈を無視して全く間違った情報を提供する)」で、基本的にはGPTの「学習不足」に起因すると考えられています。(松尾豊&杉本孔明、生成AI が生み出す「幻想」と呼ばれる現象とは?、Newton別冊:ChatGPT徹底解説、pp.116-117、2023年)
_現段階の生成AIと科学研究との関係は「科学の道具としてのAI」と「身体性を持たないAI」という制約から抜け出せてはいないようです。また、GPT-4からは内容が「非公開(=商業利用?)」となっているのですが、「安全性確保のためにも透明性が重要(サンタフェ研・ミッチェル)」との指摘もなされています。(G.マッサー、オウム以上フクロウ未満 生成AIの思考力、別冊日経サイエンス、pp.30-33、2022年)
_将来的には、アバターなどを通してAIが身体性を獲得する時代が来て、「あれもありますこれもあります、そして問題はここです・・」というレベルまで進化する「汎用人工知能(Artificial General Intelligence:AGI)」が誕生するものと思います。しかし、現段階ではやはり科学研究の担い手は人の頭脳であることは否めないようにも思います。(山崎健・スポーツ科学研究所所長)
