こんにちはゲストさん。会員登録(無料)して質問・回答してみよう!

解決済みの質問

AIは将来「2001年宇宙の旅」のHALになるのか

AI(人工知能)が発達すると、
映画「2001年宇宙の旅」に出て来たHALのようになるのでしょうか。

投稿日時 - 2018-09-18 20:38:04

QNo.9538604

暇なときに回答ください

質問者が選んだベストアンサー

あのHAL2000と言うコンピュータは、アシモフの3原則、のアイロニカルな表現なんです。

ロボットは人間に危害を加えてはならない
ロボットは人間に服従しなければならない
ロボットは上記2原則に反しない限りにおいて自分を守らなければならない

ということで、宇宙飛行士を宇宙空間に放置しても危害を加えたことにはなりませんし、そもそもロケットを設定したときの目的にしたがって航行を続けていて、宇宙飛行士が自分を破損しようとしたから自分を守ったわけです。きっちりアシモフの原則を守っていた、ということがあの映画の核心にあったのです。そこでこいつをリスタートしようという作業を試みようとし、それが一応成功した。
で、突然胎児のようなものが出現し、そもそも人間存在というのがHALと似たようなかたちで発生したんではないのか、という視点のずれ、しかしテーマはずれないという方向に話のドライブをしていったんです。

AIは、実はこのロボット三原則なんて知りもしませんし、守ろうとも思っていません。だからHALになる恐れはない。そもそも今のAIだったら、古来いろいろな意味で機械とか計算機がどうあらねばならないという議論があったのかはスキャンしてディープラーニングで考え、何が適切なルールなのかを適切度順に並べる程度のことはできます。それがアシモフの原則であるとはおもえません。
おそらくHAL2000に比べたら今のAIのほうがはるかに優秀です。なにしろHALが活躍したのは2001年で、その時代より17年経っているんですよ。進化していなければおかしい。
おうおうに言われるような、人間と同じ血が流れているわけではないから、判断が人間の感覚と合わないかもしれないなんていうことはないんです。人間がどう感じるかもラーニングしますから、嫌われるようなことにはならない。

つまりAIが自分で考え、何か意趣遺恨を持って人間を滅ぼそうということはありえません。メトロポリス映画版のティマのように最後に逆上して人間を滅ぼすスイッチをONするなんていうことはありません。ああいうことをするのはワルキューレのブリュンヒルデというような生身のものです。

問題なのは、とにかく面倒なことを調べたり考えたりしてくれますから、人間がどんどんバカになっていくという方向のほうです。むりに考えなくてもいいなら機械に任せて自分は寝て居ようとすると、筋肉は衰え自分を守る反射神経機能も鈍り、どっかで野垂れ死にをするような方向に人間が進化するんではないか、ということが一番懸念されることです。

コンピュータが発展したために、現在そろばんができる人間が減っています。昔だったら、小学校で叩きこまれましたから、うまい下手はあってもソロバンができないなんていうのはいなかった。
今、表計算がありますから、きっちり簿記を習って数字を整理して記帳するということへの緊迫感がなくなった。
漢字変換機能が発達してきたので辞書を引く人間が減り、誤字をしても覚えない。そもそも誤字は、誤変換なんであって、自分が字をおぼえていないということと直結しません。テンプレートがあるので、推敲して悩みに悩んで文章を作る人間はいなくなった。

どんどんバカになる方向に進んでいます。これが一番の問題なんです。

投稿日時 - 2018-09-18 23:52:14

お礼

回答どうもありがとうございました。

投稿日時 - 2018-09-24 01:53:20

ANo.4

このQ&Aは役に立ちましたか?

0人が「このQ&Aが役に立った」と投票しています

-広告-
-広告-

回答(4)

ANo.3

いまのAIはおおざっぱに言うとパターン認識しかしません。そのパターンをある程度自動的に覚えるようになったっていうレベル。使い物になるようにするためには教師データと呼ばれる正解パターンをたくさん用意して覚え込ませる必要がある。これでも人間の脳はどうやってパターン認識しているのかを一所懸命研究して出来上がってきた技術です。

だけど人間とかHALのようなものは経験したことがないことを直観的に判断する直感力を持っています。この直感力がどうやって働いているのかがまったく分かってないらしいです。分かってないのでプログラム化ができない。なのでコンピュータ化ができない。
あと、感情というものをどうコンピューティングするかについても技術的に確立していない。時に人間は理性では間違っていることを知っているのに感情に従って間違った行動をしてしまう。食事の後の甘い物とかシメのラーメンとか(笑)。理性的判断を放棄しちゃう条件とか苦し紛れに突発的な判断をする条件を論理的に説明できないとプログラム化、コンピュータ化ができません。

というワケで、HALレベルのコンピュータを作るにはいくつかの脳科学的、情報工学的なハードルをクリアする必要がありそうです。

投稿日時 - 2018-09-18 22:27:40

お礼

回答どうもありがとうございました。

投稿日時 - 2018-09-24 01:52:24

ANo.2

今のAIはいくら発達しても、HALにはなりません。
今のAIは人格といったものを模倣するためのものではないからです。

人格を模倣する研究も続けられていますが、それはまだまだ形になっていません。

投稿日時 - 2018-09-18 21:45:50

お礼

回答どうもありがとうございました。

投稿日時 - 2018-09-24 01:52:05

ANo.1

可能性はあるでしょうね。
またターミネーターの世界になる可能性も。
諸手を挙げて人工知能をもてはやすことは危険かもしれません。

投稿日時 - 2018-09-18 20:48:34

お礼

回答どうもありがとうございました。

投稿日時 - 2018-09-24 01:51:48

-広告-
-広告-

あなたにオススメの質問

-広告-
-広告-