Googleの強力なAIは、人間の認知グリッチにスポットライトを当てています:流fluentなスピーチを流fluentな思考と間違えます

テキサス大学オースティン大学リベラルアーツカレッジとアンナAイバノバ、マサチューセッツ工科大学(MIT)ケンブリッジ/オースティン(米国)、6月25日(会話)このような文章を読むと、あなたの過去の経験はあなたに伝えてくれます。それは、人間を感じ、思考によって書かれています。そして、この場合、実際にこれらの言葉を入力する人間があります:[こんにちは、そこに!]しかし、最近、著しく人間的に見えるいくつかの文は、実際には大量の人間のテキストで訓練された人工知能システムによって生成されます。

人々は、流fluentな言葉が思考から来ていると仮定することに非常に慣れており、反対の証拠はあなたの頭を包むのが難しいと人間を感じています。この比較的未知の領土をどのようにナビゲートする可能性がありますか?流fluentな表現を流fluentな思考と関連付ける傾向が持続しているため、AIモデルが流fluentに自分自身を表現できる場合、それは人間のように考え、感じることを意味するのは自然に誤解を招く可能性があります。

したがって、Googleのエンジニアが最近、GoogleのAIシステムLamdaが自己意識を持っていると主張したことは、おそらく驚くことではないでしょう。このイベントとその後のメディアの報道は、人間の言語の計算モデルが知覚的であり、考え、感情と経験ができるという意味であるという主張に関する多くの正しく懐疑的な記事と投稿につながりました。

AIモデルが感覚的であることの意味の問題は複雑です(たとえば、同僚の見解を参照)、ここでの目標はそれを解決することではありません。しかし、言語研究者として、私たちは認知科学と言語学の研究を使用して、人間が流fluentに使用できるエンティティが知覚的、意識的、または知的であるという考えの認知的trapに陥るのが非常に簡単な理由を説明することができます。

AIを使用して人間のような言語を生成します

GoogleのLamdaのようなモデルによって生成されたテキストは、人間によって書かれたテキストと区別するのが難しい場合があります。この印象的な成果は、文法的で意味のある言語を生成するモデルを構築するための数十年にわたるプログラムの結果です。

N-Gramモデルとして知られる少なくとも1950年代に遡る初期バージョンは、特定のフレーズの発生をカウントアップし、特定のコンテキストでどの単語が発生する可能性があるかを推測するために使用しました。たとえば、「ピーナッツバターとゼリー」が「ピーナッツバターとパイナップル」よりも可能性の高いフレーズであることを知るのは簡単です。十分な英語のテキストがある場合は、「ピーナッツバターとゼリー」というフレーズが何度も表示されますが、「ピーナッツバターとパイナップル」というフレーズが表示されることはありません。

今日のモデル、人間の言語を近似するデータ、およびルールのセットは、いくつかの重要な方法でこれらの初期の試みとは異なります。まず、彼らは本質的にインターネット全体で訓練されています。第二に、彼らは隣人である言葉だけでなく、遠く離れた言葉間の関係を学ぶことができます。第三に、それらは膨大な数の内部「ノブ」によって調整されています。それが非常に多く、エンジニアが別の単語ではなく1つの単語のシーケンスを生成する理由を理解するのが難しいことです。

人工知能が語る「魂」GoogleのAIに知覚が宿った?

ただし、モデルのタスクは1950年代と同じままです。次にどの単語が来るかを決定します。今日、彼らはこのタスクが非常に優れているため、生成するほとんどすべての文章が流動的で文法的であると思われます。

ピーナッツバターとパイナップル?

「ピーナッツバターとパイナップル___」という文を完成させるために、大規模な言語モデルGPT-3に依頼しました。 「ピーナッツバターとパイナップルは素晴らしい組み合わせです。ピーナッツバターとパイナップルの甘くておいしいフレーバーは、お互いを完璧に補完します。」人がこれを言った場合、ピーナッツバターとパイナップルを一緒に試してみて、意見を結んで読者と共有したと推測するかもしれません。

しかし、GPT-3はどのようにしてこの段落を思いついたのでしょうか?私たちが提供したコンテキストに適合する単語を生成することにより。そして、別のもの。そして、別のもの。モデルは、パイナップルを見たり、触れたり、味わったりすることはありませんでした。それは、それらに言及するインターネット上のすべてのテキストを処理しました。それでも、この段落を読むことで、人間の心、つまりグーグルエンジニアの心を導くことができます。これは、ピーナッツバターとパイナップル料理について推論できる知的な存在としてGPT-3を想像することです。

人間の脳は、言葉の背後にある意図を推測するために固執しています。会話に従事するたびに、あなたの心は自動的に会話パートナーのメンタルモデルを構築します。次に、彼らが言う言葉を使用して、その人の目標、感情、信念をモデルに記入します。

単語からメンタルモデルにジャンプするプロセスはシームレスであり、完全に駆け巡る文を受け取るたびにトリガーされます。この認知プロセスは、日常生活の中で多くの時間と労力を節約し、あなたの社会的相互作用を大幅に促進します。

ただし、AIシステムの場合、薄い空気からメンタルモデルを誤解しています。

もう少し調査すると、この不火の重大度が明らかになる可能性があります。検討

コメントを残す

メールアドレスが公開されることはありません。