Startrek Picard 見終わったので。AIとcomputerを区別する意味はあんまりないのだが、AIが暴走して人間を滅ぼすってのはScifiでは良くある。
Dune とかだと禁止されれて、その代わり人間コンピュータであるメンタートがいたりします。また映画化されるみたいだけどね。
Super-Turing とかいうなら、まぁ、面白いんだが、人間の延長線のAIのすごいのだと、そんなに不連続的な変化にならない気がする。
猫と人間だと結構差がある気がするが熊とかだと微妙。しかも、
問題は集団としての振る舞い
だからな。人はいろんな知能の人が集まってるので、一部に頭が10倍良いのがいても、みんなで足引っ張るからあんまり差がでない。
フォンノイマンとか超頭が良くてMAD戦略とか作ったみたいだけど、そんなもの。
で、Singularity 超越が起きると人類が滅ぼされてしまうってな考えがあって、コリンウィルソンの賢者の石とか超怖いわけ。
でも、それって「お前が頭良かったら、そういうことするからでしょ」とは思うな。今のアメリカ人はそういう人たちの子孫なわけで...
宇宙人が侵略してくるとかは、自分たちのやってきたことの裏返しなわけだ。それがAIに変わっただけ。
そういう超越的知能がでたら、だまって出てくんじゃないかって言う考えもあるみたい。ブラッドミュージックとか都市と星とか。
可能な Singularity の形を示すのは Scifi 作家の務めだとは思うが、まだ、明確なのはないかな。Diamond Age とか Golden Age とかは一つの方向かな。
でも、単なる頭の良い Siri では世の中は変わらない気がする。
No comments:
Post a Comment