_2022年に公開されたオープンAIの “ChatGPT” が話題になっています。現在利用できる同様の「生成AI」は、マイクロソフトが “Copilot” をグーグルは “Gemini”を公開しており、それぞれの特徴(アドバンス)も異なっているようです。いずれも大規模言語モデルでの膨大なデータの事前学習と深層学習(ディープラーニング)を行い、さらに目的別再学習(ファインチューニング)を行い質問に対応する文章を生成します。
_大規模言語モデルの事前学習では人為的に「正解」や「不正解」のラベルはつけないので、「学術論文」であっても「メディア配信記事」であっても「個人のブログ」であっても同等に大規模学習の対象となります。また、学習されるデータはあくまでもオンライン上で提供されたものでかつ「生成AIに学習されたもの」に限定されています。そして膨大なデータ学習により文書中の単語と単語の位置関係や文法規則、言い回しや文脈、文書を成り立たせる様々なルールやパターンを学習しているようです。ChatGPTなどが採用する「トランスフォーマー(元々は機械翻訳のアルゴリズム)」という機能は、文中の単語(文字)を「ベクトル」で表現して計算して再構成する「自己注意機構」で文脈を理解(単語ごとの「Query(意味関係)」「Key」「Value」(一組で辞書のような役割)で文脈性を保持?)しているようなのです。
_ただし、OpenAIは「人間のフィードバックからの強化学習(RLHF)」を「人手」をかけ取り組むことが必要だったようで、2022年メタ社が開発した「Galactica(AI科学者を標榜)」は差別や偏見を含む文章を生成して批判が殺到し3日間でサービス停止に至ったとの例もあります。(吉川和輝&今泉允聡、AIに人間らしさをもたらした大規模言語モデル、別冊日経サイエンス:生成AIと科学、pp.6-13、2022年)
_一方、吉川和輝は「機械はリンゴを想像できるか」との視点から、今の対話システムは会話の状況がどのような文脈で相手の言葉が出てきたかを考えてはおらず、文字通り「字面」だけの言語処理になっていることも指摘します。(吉川和輝&戸次大介、進化する自然言語処理、別冊日経サイエンス、pp.38-44、2022年)
_東京大学の國吉康夫も、ChatGPTなどは「ある意味人の知能とは非常に違って、言語的な世界に『閉じている知能』である」として「本当の意味での体験はない」「“体”が無ければ知能は作れない」「『身体性』をベースとしたAIを追求しなくてはならない」と指摘します。また、東京大学の池内与志穂は、2つの脳オルガノイドから構成される人工知能が協調して活動するシステムを研究し、オーストラリアのB.ケイガン博士は「バイオインテリジェンス」として脳オルガノイドとコンピュータを組み合わせることでゲーム展開での驚異的な学習能力(70回と数万回)をみせること、人の脳は20ワットほどの電力消費であるのに対してChatGPTは小さな都市一つ分の電力消費であることも指摘します。AIとディープラーニングを研究する東京大学の松尾豊は、ヒトが運転免許を取るまでの時間が驚くほど短いことからも人の脳のデータ学習効率の驚異的な高さを指摘します。(NHK:FRONTIERS 人間の知能は作れるか?、2025年放映)(続く)
