狂騒のChatGPT(岩波の雑誌「世界」の特集)

| コメント(0)
対話型AIサービスChatGPTが大変な騒ぎを引き起こしている。あっという間に億単位のユーザーを獲得したことに、騒ぎのすごさを感じることができる。その騒ぎを前にして、このサービスが人間に明るい未来を拓くものだとする肯定的な評価がある一方、逆に人間に害を及ぼす危険を指摘する否定的な評価もある。欧米諸国では、これを警戒する空気の方が優勢で、早くも法的な規制についての議論が高まっているのに対して、日本では、積極的に活用すべきだという雰囲気の方が優勢である。日本はこの分野では後進国で、問題点をあげつらうよりは活用する方が先だとする考えのほうが優勢なのだ。この問題について、岩波の雑誌「世界」の最新号(2023年7月号)が、「狂騒のChatGPT」という特集を組んでいるので、そこに寄せられた文章を読めば、問題の所在についてのおおまかな傾向を知ることができる。

人工知能というと、小生などは、ホーキング博士の説を想起する。ホーキング博士は、人工知能の発展が一定の段階になると、人間による制御から独立し、自分自身の利益のために行動するようになる可能性が高いと指摘した。その段階に達した人工知能は、自己設計を通じて「繁殖」し、あなどれない力を持つようになるばかりか、人間に敵対するようになるかもしれない。そうなったら、人間には勝ち目はない。人間には自然から授かった限界があるが、人口知能はそうした限界を超えて、無限に発展することが可能だからだ。

今回の「世界」の特集には、そうした危機に言及するものはなかった。むしろAIがいまだに幼稚な段階にあることを強調するものが目に付く。たとえば、今井むつみと川添愛の対談「わかりたいヒトとわかっているふりをするAI」は、チャットGTPとは、よくできた「ELIZA」に過ぎない、という(今井)。その意味は、この対話型のAIが、相手との対話を人間並みのやり方でやってるのではなく、人間らしく振舞っているにすぎないということだ。「相手の要求がわかっているようにふるまう、それがすごくうまい機械」だというのである。

その理由についても、わかりやすく解説している。それによると、このチャットGPTは二つの要素から成り立っている。文章の展開上で「次の単語」を予想する大規模言語モデル、もう一つはGPTの答えに対する人間の反応から、その有効性を読み取る能力である。第一のモデルで用意した答えに人間が肯定的な反応を示せば、それが正しい答えだと認識するわけだ。これは、犬や馬にもできることで、要するにいまのGPTの能力は犬や馬並みということになる。それゆえ、人間にとって深刻な脅威と受け取る理由はないわけである。

この対談とは別に、チャットGPTの破壊的な影響力を危惧するものもある。ナオミ・クラインの「幻覚を見ているのはAIの機械ではなく、その制作者たちだ」と題した一文である。この文章は、AIの技術が、よくいわれるような人間の福利厚生の観点からではなく、あくまでも最大利潤追求の観点からなされていることを指摘したうえで、この技術が膨大なデータを取集する過程で、情報の「占有や略奪のためのおそろしい道具となる可能性のほうが遥かに大きい」と警告している。

このように、AIについては、多角的な視点からの議論が必要であろう。日本政府のような、その利便性にのみ着目し、前のめりになるような姿勢はあまりにも幼稚すぎるといわねばならない。なにしろ、マイナ・システムの構築さえろくにできないでいる国柄だ。身の程をよくわきまえて、懸命な行動に心掛けるべきである。





コメントする

アーカイブ