【G検定】⑥ 第3章 人工知能分野の問題 ・・・「20年後、人間社会は終わる」
「20年後、人間社会は終わる…」
かもしれないという話。「んなアホな。。またまた~」とはいえ単に冗談でもない。。
2017年にこんなニュース出たのはご存じでしょうか?
「2つのAIが“独自言語”で会話」の真相--FacebookのAI研究開発者が明かす - CNET Japan
この研究では「AI同士で価格交渉しろ」「言語は好きにしていい」という実験で、価格を上げたいAIと、価格を下げたいAIで、お互い合意できるように交渉するというテーマだそうですが、途中からワケわからない言語で会話を始めて、実験が強制終了した。という話です。(実際は「別にパニックで強制終了したんじゃない」そうですが)
これ「半分本当、半分冗談」らしいですが、誰でも使えるディープラーニングの技術が「人間より高い知能」を得て、どこかの誰かが変な目的でソレを使い、AI同士で進化し合って、聞いたことない言語で会話し始めて、「じゃあロボット作りましょうか(目的不明)」なんてことになったら・・・まさにターミネーターの世界。。
というのが、今回のテーマ『人工知能分野の問題』の一つ、『シンギュラリティ(技術的特異点)』のお話でした。それが「2045年にはそうなる」そうです。。なんなら「人間より高い知能」は「2029年にはできる」・・・恐っ。。
しかし今回のテーマ『人工知能分野の問題』はそんな恐い話ばかりではなく、「え?かわい。。」という話から「ぉお。。深いな。。」というテーマまで、盛りだくさん。結構楽しい章ですね。
「そんな面白いんや・・・」と気になった方は、是非テキスト+WEBで深堀してみてください。ココは試験用のカンペノートなので、要約(割愛)させていただきます。。
**********
3.人工知能分野の問題
①トイ・プロブレム(おもちゃの問題)
「AIで解ける問題は所詮オモチャの問題よ!」という問題。コレはだいぶクリア。
②フレーム問題(1969.ジョンマッカーシ&パトリックヘイズが指摘)
人工知能研究最大の難問。未だ解決されていない。
「今しようとしている事に『関係する事柄だけを選び出す』事が非常に難しい」問題。
例)ロボットに「洞窟にあるバッテリー(爆弾付き)を取って来い」と命令する。
・ロボット1号「そのまま爆弾付きで持ってきて爆〇」
・ロボット2号「持ち出す方法を計算中に、時間切れで爆〇」
・ロボット3号「持ち出す方法の計算方法の計算中に、時間切れで爆〇」
→人間はあらゆる状況考えてフリーズするなんて事はナイ。
③チューリングテスト(byアラン・チューリング「チューリングマシーン」)
「人工知能が出来たかどうか?」ELIZA効果から生まれたテスト。「人と間違うぐらい自然な会話できるAI」を合格とする。1991年から「ローブナーコンテスト」に名称変更。2014年にユージーングーツマンが初の合格者(でも物議醸してる)
・やり方:見えない部屋にAIと人を入れ、それらに試験官が会話する。そしてどちらが人かを当てる(AIを「人だ」と判定されたらそのAIは「合格」)
「結局見た目で人かAIか、判断してるだけでしょ?」というスタンスの実験。
④強いAI・弱いAI(byジョン・サール@米哲学者)
「本当の心を持つAI(人工知能)はコンピュータで実現できる」(強いAI)
「いや、そんなの必要ない。AIなんて便利ツールで十分よ」(弱いAI)
「ちなみに心って何ですか?意味って何ですか?」=「意味論の欠如」(強いAI/弱いAI問題)
・やり方:箱の中に中国語辞書持たせたフランス人入れて、箱の中身を知らないアメリカ人に、中国語の文章を箱の中に投函させる。箱から英訳された文章が出力されるのを見て「ぉお!スゲー自動翻訳機やん!」と言わせる。
・何が言いたいか?:心持ったフランス人。文章の意味も解らず英訳。出てきた文章みて「おぉ!自動翻訳!」言うアメリカ人。「何これ?」という話。
⑤シンボルグラウンディング問題(byスティーブンハルナット@認知心理学者)
別名「記号接地問題」=「記号」と「意味」が「接地(繋がる)」か?問題。人工知能の難題と言われている。
例)「シマ(記号…柄)」+「ウマ(記号…イメージ)」=「シマウマ」がイメージできるか?「初めて見たけど、多分あれ、シマウマやんな?」と、コンピュータが言えるか?という問題。
⑥身体性
「知能の成立には身体が不可欠」「コンピューターは体ないやん」という問題。
例)「水」というモノが持つ、意味や概念…これは「触って」「見て」「飲んで」みないと、正確な意味や概念が習得できない。「水のように生きよ」言われてもコンピュータは「意味わからん。水は生き物ちゃうし。」になってしまう。
⑦知識獲得のボトルネック(前述なので割愛)
例)「He saw a woman in the garden with a telescope」を和訳で
人:「彼は望遠鏡で、庭にいる女性を見ていた」(変態だな。困ったヤツだ。)
AI:「彼は、庭で望遠鏡持った女性を見た」(そんな女性、普通いるか?)
知識獲得には「一般常識」がナイと無理。でも「一般常識」は変化する。獲得難しい問題(ライトウエイトオントロジーでだいぶクリアされつつある。自然言語処理参照。)
⑧特徴量設計(特徴量エンジニアリング)
「注目すべきデータの特徴」の選び方問題。
昔は人が全部やっていたが、今は「特徴表現学習」進んで、AI自身もやれるように。(つまりクリアされつつある)
しかしAI自身が「注目すべきデータ」を選べるようになることは、つまり「何を注目すべきデータとして選ばれたのか?」が人が解らないという問題がある。(ブラックボックス型のAI)
これは医療AIなどで特に問題視される(「ガンです」「本当ですか?」「ってAIが言うてる」では使いモノにならない)→なのでXAI(eXplainable AI:説明可能AI)が重要に。
⑨シンギュラリティ「技術的特異点」(前述の通り)
人知を超える知性の誕生は「2029年に」それによって技術進化速度が無限大になり、何が起こるかわからない世界になるのは「2045年には」byレイ・カールワイル
「人類終焉」byスティーブン・ホーキンス@宇宙学者
「かなり慎重に取り扱うべき」byイーロン・マスク
「人工知能に関する倫理委員会」by Google→2014「日本人工知能学会倫理委員会」設立
**********
カンペが長くなったので、後書きも割愛。
しかし「フレーム問題」の「人にはこんなことは起きない」については一言モノ申したい。。「人間には起きない」ってそんなことないし、そもそもこういう人いますよね?
「永遠に計画練ってる人」・・・いませんか?爆〇しちゃいますよ。。