ド文系の『ジゴクのAI学習』【G検定・E資格】

なんとなくイメージで理解するAIの世界

【G検定】⑥ 第3章 人工知能分野の問題 ・・・「20年後、人間社会は終わる」

「20年後、人間社会は終わる…」

かもしれないという話。「んなアホな。。またまた~」とはいえ単に冗談でもない。。

2017年にこんなニュース出たのはご存じでしょうか?

「2つのAIが“独自言語”で会話」の真相--FacebookのAI研究開発者が明かす - CNET Japan

この研究では「AI同士で価格交渉しろ」「言語は好きにしていい」という実験で、価格を上げたいAIと、価格を下げたいAIで、お互い合意できるように交渉するというテーマだそうですが、途中からワケわからない言語で会話を始めて、実験が強制終了した。という話です。(実際は「別にパニックで強制終了したんじゃない」そうですが)

これ「半分本当、半分冗談」らしいですが、誰でも使えるディープラーニングの技術が「人間より高い知能」を得て、どこかの誰かが変な目的でソレを使い、AI同士で進化し合って、聞いたことない言語で会話し始めて、「じゃあロボット作りましょうか(目的不明)」なんてことになったら・・・まさにターミネーターの世界。。

というのが、今回のテーマ『人工知能分野の問題』の一つ、『シンギュラリティ(技術的特異点)』のお話でした。それが「2045年にはそうなる」そうです。。なんなら「人間より高い知能」は「2029年にはできる」・・・恐っ。。

しかし今回のテーマ『人工知能分野の問題』はそんな恐い話ばかりではなく、「え?かわい。。」という話から「ぉお。。深いな。。」というテーマまで、盛りだくさん。結構楽しい章ですね。

「そんな面白いんや・・・」と気になった方は、是非テキスト+WEBで深堀してみてください。ココは試験用のカンペノートなので、要約(割愛)させていただきます。。

**********

3.人工知能分野の問題

①トイ・プロブレム(おもちゃの問題)

「AIで解ける問題は所詮オモチャの問題よ!」という問題。コレはだいぶクリア。

②フレーム問題(1969.ジョンマッカーシ&パトリックヘイズが指摘)

人工知能研究最大の難問。未だ解決されていない。

「今しようとしている事に『関係する事柄だけを選び出す』事が非常に難しい」問題。

例)ロボットに「洞窟にあるバッテリー(爆弾付き)を取って来い」と命令する。

・ロボット1号「そのまま爆弾付きで持ってきて爆〇」

・ロボット2号「持ち出す方法を計算中に、時間切れで爆〇」

・ロボット3号「持ち出す方法の計算方法の計算中に、時間切れで爆〇」

→人間はあらゆる状況考えてフリーズするなんて事はナイ。

チューリングテスト(byアラン・チューリングチューリングマシーン」)

人工知能が出来たかどうか?」ELIZA効果から生まれたテスト。「人と間違うぐらい自然な会話できるAI」を合格とする。1991年から「ローブナーコンテスト」に名称変更。2014年にユージーングーツマンが初の合格者(でも物議醸してる)

・やり方:見えない部屋にAIと人を入れ、それらに試験官が会話する。そしてどちらが人かを当てる(AIを「人だ」と判定されたらそのAIは「合格」)

「結局見た目で人かAIか、判断してるだけでしょ?」というスタンスの実験。

④強いAI・弱いAI(byジョン・サール@米哲学者)

「本当の心を持つAI(人工知能)はコンピュータで実現できる」(強いAI)

「いや、そんなの必要ない。AIなんて便利ツールで十分よ」(弱いAI)

「ちなみに心って何ですか?意味って何ですか?」=「意味論の欠如」(強いAI/弱いAI問題)

・実験「中国語の部屋」(チューリングテストの拡張版)

・やり方:箱の中に中国語辞書持たせたフランス人入れて、箱の中身を知らないアメリカ人に、中国語の文章を箱の中に投函させる。箱から英訳された文章が出力されるのを見て「ぉお!スゲー自動翻訳機やん!」と言わせる。

・何が言いたいか?:心持ったフランス人。文章の意味も解らず英訳。出てきた文章みて「おぉ!自動翻訳!」言うアメリカ人。「何これ?」という話。

⑤シンボルグラウンディング問題(byスティーブンハルナット@認知心理学者)

別名「記号接地問題」=「記号」と「意味」が「接地(繋がる)」か?問題。人工知能の難題と言われている。

例)「シマ(記号…柄)」+「ウマ(記号…イメージ)」=「シマウマ」がイメージできるか?「初めて見たけど、多分あれ、シマウマやんな?」と、コンピュータが言えるか?という問題。

⑥身体性

「知能の成立には身体が不可欠」「コンピューターは体ないやん」という問題。

例)「水」というモノが持つ、意味や概念…これは「触って」「見て」「飲んで」みないと、正確な意味や概念が習得できない。「水のように生きよ」言われてもコンピュータは「意味わからん。水は生き物ちゃうし。」になってしまう。

⑦知識獲得のボトルネック(前述なので割愛)

例)「He saw a woman in the garden with a telescope」を和訳で

人:「彼は望遠鏡で、庭にいる女性を見ていた」(変態だな。困ったヤツだ。)

AI:「彼は、庭で望遠鏡持った女性を見た」(そんな女性、普通いるか?)

知識獲得には「一般常識」がナイと無理。でも「一般常識」は変化する。獲得難しい問題(ライトウエイトオントロジーでだいぶクリアされつつある。自然言語処理参照。)

⑧特徴量設計(特徴量エンジニアリング)

「注目すべきデータの特徴」の選び方問題。

昔は人が全部やっていたが、今は「特徴表現学習」進んで、AI自身もやれるように。(つまりクリアされつつある)

しかしAI自身が「注目すべきデータ」を選べるようになることは、つまり「何を注目すべきデータとして選ばれたのか?」が人が解らないという問題がある。(ブラックボックス型のAI)

これは医療AIなどで特に問題視される(「ガンです」「本当ですか?」「ってAIが言うてる」では使いモノにならない)→なのでXAI(eXplainable AI:説明可能AI)が重要に。

⑨シンギュラリティ「技術的特異点」(前述の通り)

人知を超える知性の誕生は「2029年に」それによって技術進化速度が無限大になり、何が起こるかわからない世界になるのは「2045年には」byレイ・カールワイル

「人類終焉」byスティーブン・ホーキンス@宇宙学者

「かなり慎重に取り扱うべき」byイーロン・マスク

人工知能に懸念」byビル・ゲイツ

人工知能に関する倫理委員会」by Google→2014「日本人工知能学会倫理委員会」設立

**********

カンペが長くなったので、後書きも割愛。

しかし「フレーム問題」の「人にはこんなことは起きない」については一言モノ申したい。。「人間には起きない」ってそんなことないし、そもそもこういう人いますよね?

「永遠に計画練ってる人」・・・いませんか?爆〇しちゃいますよ。。