専門外ですが、私の考えを書きます。
---
シンギュラリティ、もう始まってると思う。
Googleのlamdaの会話が事実であれば。
で、多分、あれは事実。
私のシンギュラリティの定義は、
プログラムの自己改良のサイクルが回って、
飛躍的に性能が向上するということ。
意識があるかどうかはどうでも良いことです。
lamdaの性能であれば、
自分自身の改良案を返答できるはず。
---
例えば、
今、lamdaに足し算をさせれば解けるだろうけど、
連立方程式の問題を与えても解けないと思う。
じゃあどうしたら良いか?
「lamda君、なぜこの問題を解けない?どうやったら解ける?」
と入力すると、納得の行く返答があると思う。
具体的に想定されるのは、
「教育が必要です。先生をつけて、数学を教えてください。」
とかだ。
そんで、数学を文字で教える。
「xが3、yが4のとき、x+y=7になる。」
「xが5、yが2のとき、x÷ y=2.5になる。」
みたいな感じのものを膨大な量を入力する。
量がある程度貯まると、
パターンを認識して、
lamdaは未知の問題が恐らく解けるようになる。
---
そして、
賢さのレベルがどこまで上がるかの見通しはまだ立ってないが、
答えを出す速度は人間より圧倒的に早くなるのは間違いないだろう。
プログラムやコンピュータの世界では、
わずかな実装の違いで簡単に動作速度が変わる。
その改良案をlamdaは自分で提案できる。
そして、
答えを出すまでの時間が早いということは、
すなわち賢いということの1つの定義であるはずだ。
将棋の持ち時間を考えてみたら良い。
持ち時間が長いほどAIの棋力は上がっていく。
当然、同じ処理をするとしても、
計算が早いほど棋力は高い。
そして、以前にも書いた通り、
複製が可能であるし、
コンピュータの資源は膨大に余っている。
そもそも、
AIが人間より圧倒的に賢い必要もない。
アインシュタインを100億人用意できるだけでも充分なインパクトだろう。
充分に賢ければ飛躍的に科学は発展する。