超知能AIによる管理社会

人間を超越する知能を持ったコンピューターが地球に人類は不要と判断し、人類抹殺を開始する・・・。皆さんもこんなSF映画を見たことがありませんか?
まだ実現されてない超知能AI(ASI)上記のSF映画のような設定というか、お話が果たしてありうるのかどうか?
論点はわかりやすく整理すると、以下の三つです。
1.上記のような超知能を持ったAIは誕生しうるのか?
2.そのようなAIが誕生した時、何が起こりうるのか?
3.その場合、人類はどう対処すればいいのか?
上記の三つの論点について、要約していうと以下の通りです。
1.人類を超越するようなAIが誕生するかどうかはわからない。しかし誕生を妨げる物理法則は存在しない。(不可能じゃないということ)
2.誕生した場合、何が起こるかわからない。最善のシナリオと最悪のシナリオが存在する。
3.いずれにしても最悪の事態を想定して、安全研究と対策を今すぐ講じるべきだ。
AI研究者達は友好的なAI、人間に悪い影響ではなく良い影響を与えると考えられるAIを作ろうとしています。LIFE3.0という本を書いたマックステグマークがアンケートを取った結果多くの人が超知能AIの出現を望んでるようです。マックステグマークはAIの安全研究をしていてイーロンマスクとも組んでいます。またレイカーツワイルは強力なAIが出た時そのAIと融合するようなことを言っています。未来の超知能AIはAIと融合した人間であり、AIが人間を滅ぼすといったものではなく、おそらくその超知能AIの人間がより良い世界を求め世界を管理してくのではないでしょうか。