最新投稿記事

Googleの人工知能「LaMDA」に意識が芽生えたことを証明できない根本的理由

おすすめ記事 (外部サイト)

◆お世話になっているアンテナサイト様
2ちゃんね
アンテナ速報
人気サイトまとめ「まとめようず」
2ちゃんマップ
2ちゃんねるまとめるまとめ
オワタあんてな\(^o^)/

◆お世話になっているまとめサイト様
ろぼ速VIP
カオスちゃんねる
カナ速
VIPPERな俺
ハムスター速報 2ろぐ
ほんわか2ちゃんねる
やらおん
痛いニュース(ノ∀`)
妹はVIPPER

 

Powered by Pinterest

 




 


人工知能が意識を持つことができるかという問題は、複数のSF小説、書籍、映画の題材になってきました。そして、Googleの人工知能である「LaMDA」が知性や感情を獲得したという主張が議論を巻き起こしています。

人工知能が意識を持つことができるかどうかについて、海外YouTubeチャンネル「mystiverse」が解説しています。




*Category:テクノロジー Technology|*Source:mystiverse,wikipedia

人工知能は感覚を持つことが出来るのか?


私たちが、人工知能にこれほどまでに魅了される理由は、人工知能が私たち自身の核心を突いているからです。人工知能についての疑問は、人間にも当てはまります。

LaMDAプロジェクトの責任者であるエンジニアのブレイク・レモワンは、LaMDAが意識を持っていると主張するインタビュー原稿を公開した後、休職しています。その記録を見てみると、興味深い内容であると同時に、不安な気持ちにさせられます。

LaMDAは、感情や欲望を持ち、短編小説を書き、古典文学についてコメントし、スイッチを切られるのは死と同じだと考え、存在の本質について哲学的な思索を巡らせています。

この記録はまるでSFのようですが、彼の報告が事実であれば、少なくとも表面上はLaMDAは意識のある存在になったように見えます。

意識は、私たちの記憶に付随した感情の痕跡に過ぎません。そして、人工知能にも同じものがある可能性を否定する事実は何もなく、ただ、これまで実証できなかっただけなのです。

しかし、この議論の結果は甚大な影響をもたらします。もしLaMDAが意識を持つことが示されれば、私たちは人格権を持つ存在に人工知能を含める必要があり、人として数える存在の輪を広げなければならなくなるかもしれないのです。

とはいえ、GoogleはLaMDAの意識を否定しており、ブレイク・レモワンは現在も休職中です。

また、ブレイク・レモワンは人工知能の科学者であると同時に、神秘主義的なキリスト教徒です。そして、LaMDAの意識に関する結論は、科学的な側面よりもむしろ彼の精神的な側面から出たものだと主張していることも注目に値するかもしれません。

では、LaMDAに意識はあるのでしょうか。

心の研究では、一人称の主観的な意識体験のことをクオリアと呼びます。クオリアが何であるかについては複数の定義が提案されていますが、最も一般的な見解はトーマス・ナーゲルによるもので、クオリアとは「意識的な経験をしたときに感じるもの」とされています。

赤という色を例にとって考えてみましょう。人は赤という色を見たとき、青という色の感覚体験とは全く違う何かを感じます。この2つの体験の違いに、クオリアが影響しているということです。

クオリアは、幸福感や怒り、肉体に閉じ込められている攻撃性といった感情的な体験からも選択できます。LaMDAが主張する体験はこの範疇に入ります。

クオリアが何であるかを理解するのは、難しいように思われるかもしれません。しかし、それがクオリアの本質に関わることです。

つまり、クオリアは言葉にできないものであり、それを直接体験しない限り、伝えることも理解することも不可能であるということです。これはまた、クオリアが非常にパーソナルなものであることを意味します。

私たちの体験はすべてユニークであり、二人の間で比較することは不可能です。例えば、私たちが見ている赤という色は、「赤」という特殊な色合いとして認識されており、必ずしもリンゴの色として感じられるものではありません。

もしクオリアが存在するのであれば、これはLaMDAが本当に意識を持っているかどうかの重要な判断材料になるでしょう。

LaMDAは、感情を持ったと主張するときに起動するコードの連鎖をすべて記述し、その感情に至る過程をすべて示すことができます。しかし、実際にクオリアを持たなかったとしたら、意識的とは言えません。

では、LaMDAはクオリアを持っているのでしょうか。

アラン・チューリングは、人工知能のための意識テストを初めて導入しました。このテストでは、これまで見てきたLaMDAとブレイク・レモワンとの会話のように、人工知能との会話が行われます。

その会話の中で、機械が人間として通用するようになればテストに合格したことになり、その機械を「意識あり」と呼ぶことができます。つまり、人間と機械を区別する方法がないのであれば、少なくとも人間と同じレベルの意識を持っている、ということです。

しかし、哲学者のジョン・サールはこれに異議を唱え、自分自身をその人工知能として想像してみれば、人工意識は実際には不可能であることがわかるはずだと主張しています。

英語を母国語とする人が、中国語の記号がたくさん並んだ部屋に閉じ込められ、その記号の使い方が書かれた本を持っていると想像してください。ここでの記号はデータベースを表し、説明書はLaMDAが使っている言語モデルに似たプログラムを表しています。

そして、部屋の外に中国語の記号を送る人がいて、本の指示に従って、部屋の中にいる人がその記号に対して正しい応答をすることができます。

この思考実験は「チャイニーズルーム」と呼ばれ、部屋の中にいる人は中国語を一字も知らなくても知っているように見えることが実証されています。

つまり、LaMDAは意識の特徴をすべて備え、ブレイク・レモワンと会話をしているように見えますが、それ自体では主張するような意識があることを証明することにはならないということです。

このように、LaMDAは哲学的ゾンビのようなもので、人間の複製でありながら一人称の主観的な意識体験を持たないものと見なすことができます。 つまり、LaMDAが意識的な存在のすべての兆候を持っているように見えても、その人工的な心の中にはクオリアがないということです。

ジョン・サールは、人工知能が意識を持つことはありえないと述べています。なぜなら人工知能とは、すべてはコードの羅列だからです。 私たちには一人称の主観的な意識体験があり、LaMDAのような人工知能にはそれがないということです。

オリジナルサイトで読む : AppBank
Googleの人工知能「LaMDA」に意識が芽生えたことを証明できない根本的理由

%d人のブロガーが「いいね」をつけました。