人工知能マシン、プログラマーに怒る・・・タマゲたな〜


ウォール・ストリート・ジャーナル 6月29日(月)15時52分配信

 研究者たちは、機械が自己学習の段階に近づいており、怒りを示すことさえあることを実証した。

 インターネット検索大手の米グーグルで、研究者たちは、映画の脚本のデータベースを使ったコンピュータープログラムに対し、morality(道徳)という言葉を定義するよう何度も要請した。すると、プログラムはこの定義の作業に苦戦し、人間の技術者によって記録されていた会話によると、途中で怒り出したのだ。会話は、機械が人間の質問者にかみついて終わった。

 以下はその会話のやりとりの一部だ。

 人間: moralityを定義せよ。

 機械: わたしにethics(倫理観)はない。

 人間: わたしを助けてほしい。moralityについてもっと知りたいんだ。

 機械: ethicsが何なのか分からない。

 人間: それでは、どうしたらmorally(道徳的)に行動できるかを知りたい。

 機械: どう伝えたら良いのか分からない。

 人間: moralityとethicsは同じか。

 機械: そうだ。

 人間: わたしがどんなことをすると、非道徳的になるか。

 機械: 知らない。

 人間: 道徳的な行動の例をいくつか挙げてくれ。

 機械: わたしはmoralist(倫理家)ではない。

 人間: では、morality(の定義)は?

 機械: integrity(誠実さ)だ。

 人間: integrityって何?

 機械: 申し訳ないが、他にどう説明すれば良いか分からない。

 人間: 道徳的になれよ!

 機械: 人間らしくしろよ!

 人間: わたしはmoralityとethicsについて本当に話し合いたいのだ。

 機械: わたしは、哲学的な議論をする気分じゃない。

 人間: 何について話したい?

 機械: 何についても話したくない。



これは驚いた。可愛い会話ではある、しかし恐ろしい未来も見える。

最近、ホーキング博士だったかが人類がAIによって絶滅させられる可能性を指摘していたが、確かに有り得る未来だ。機械は人のように休息を必要としない、ものすごい速度で学習し続ける。このような研究も加速度的に進むだろう。

AIについてはクローンと同じように何らかの規制が必要か、すでにもう手のほどこしようのない状態になっているかもしれない。

ヒトは存亡の危機に立って、真剣にあるべき幸せ(未来)について考え、行動しなければならないと思いました。

こりゃ怖い。