ChatGPTの珍回答なぜ 研究者が考えるAIと人のギリギリの差
対話型の人工知能(AI)「ChatGPT(チャットGPT)」が注目されている。質問を投げかけると自然な受け答えをし、ユーザーの指示に応じて多彩な文章を書くことができ、要約もできる。ただ万能かと思いきや、拍子抜けするような珍回答をすることも。
その理由について、人工知能学会会長も務めたAI研究の第一人者、松原仁・東京大学教授は「AIが人間のように言葉を理解しているわけではないから」だと言う。言葉を理解していないのに対話ができるとは、どういうことなのか。詳しく聞いた。
――長年AIを研究されてきた松原さんは、ChatGPTの登場をどう受け止めていますか。
ウソも含めて、「もっともらしいこと」を言う能力が、ぬきんでているな、と思いました。
わたしは将棋が好きなので、ChatGPTに「将棋とは何か」と尋ねてみました。「将棋は日本のゲームで、チェスとルールが似ていて……」と、おおむね正しい回答をくれたのですが、途中「白と黒の駒をつかう」と言ったんです。
――白黒は、囲碁かチェスでは……。
そうなんです。他のゲームの情報がまじってしまったようなのです。これは誤りに気づきやすい例ですが、さも自分で見てきたかのように回答するので、無条件に信じてしまう人もいるのではないでしょうか。
――なぜこのようなミスが起きるのでしょうか。
ChatGPTがおかした「誤り」を入り口に、松原教授が言語処理AIの仕組みを解説します。米国では学生がリポート作成にChatGPTを使ったことが議論を呼んでいますが、松原教授は使ってもいいのではないか、とも話します。後半ではその理由や、AIと比較して見えてきた「人間ならではの営み」について、語っていただきました。
これはChatGPTなどの…
- 【視点】
対話型AIの持つ特性は、学習元のデータに規定されます。膨大なインターネット上のテキストを学習元とすれば、インターネットのテキスト総体の信憑性と概ね一致するわけです。ChatGPTもBardも、インターネット上のテキストを参照するわけですが、
- 【視点】
「いっそのことわたしは、試験や課題ではChatGPTを使用可能にしまったほうがいいのではないかと思っています」「これからは情報の真偽や価値を見分ける知識や能力が求められます」。ここで話題になっていることは、まさに将棋界で起きていることに通ず