ド文系の『ジゴクのAI学習』【G検定・E資格】

なんとなくイメージで理解するAIの世界

【E資格】⓪ 試験概要と試験対策・勉強法(方法と目安時間)について+目次と表記ルール

■あなたは『E資格』をご存じでしょうか?

JDLAの『G検定』を受験する人には「なんだ?『E資格』て」ぐらいはご覧になられたことがあるかもしれません。

「『E(エンジニア)資格』か…まぁド文系営業には関係ないな」と私も思っていましたが、ひょんなことから通学&受験してしまいました。

おかげさまでAIのことがよくわかる!

裏側の仕組みを総なめ(基礎なんでしょうけど)できる!

そしてこれらが「ド理系の天才たちの産物」だということがよくわかる!

説明してくれる講師陣も「ド理系の天才」だから、何言ってるか?全然わからん!

偏差値って本当に壁あるんだな・・・というのをこの年にして痛感しました。

(理系脳の度合ではないですが、ここはわかりやすいので『偏差値』で。実際講師陣は東大理系とか東京理科大の方々ばかりでしたので…)

『G検定』でモヤモヤしていた部分が『E資格』でスッキリわかる!という資格です。

ただしド文系には本当にエゲツナイ『ジゴク』。。

そもそも『E資格』の最初の授業は「応用数学線形代数」「ー確率・統計」「ー情報理論」・・・え?数学ばっかですやん?です。

しかも「なぜこの数学が必要なのか?」教わることなく授業が進む進む・・・

「勉強なんて何の役に立つんだよ!?」中学生が週一回言いそうなことを、この年にして吐いてしまいそうな気持にさせるほど「意味不明な知識の詰め込み」が行われます。

しかし何でアレ「これを理解するために数学が必要なんです」と教えてくれないんですかね?実際モデルの構造を理解するために「線形代数」も必要でした(中盤~終盤、理解が進んでようやくわかる)

 

■このブログは

私は今、ド文系が、ド文系に、ド理系のこの『E資格』を教えるという、無謀なサークル活動をやってます。

その経験から得れる『ド文系だからこそ』の『E資格』学習の『意味不明ポイント』だったり、その『対策・勉強法』について、書いていこうというブログです。

理由は上述の通り「偏差値70以上の理系世界の天才が作った世界。講師も天才。なのでド文系の常人には授業自体も理解できん。」ので、「ド文系でも理解できるレベルに『蒸留(とにかくシンプルに)』・『プルーニング(わからないところはもはや無視)』・『量子化(数字は極力1桁だけ)』した勉強コンテンツを作ろう」という動機です。

その結果「AI学習のトークできる仲間」が欲しいワケです。実際ド文系仲間とE資格の勉強一緒にやってるとき、本当に楽しかったもんで。全員口そろえて「アレ、どういうこと?」とワチャワチャするのは面白かったですw 

江戸時代、日本人は『和算』といって『数学』を庶民レベルで『楽しんでた』そうです。日本人は昔から計算や勉強は本当は好きなんですよね多分。『AIの世界』は現代の『和算』になれると思っています。

「ワケワカランからこそ楽しい」ということは、つまりド文系のほうが楽しめる余地が大きいワケです。ぜひド文系の『E資格』チャレンジャーが増えてほしい。是非一緒に同じレベルで「ワケワカラン!ナンナノコレ?」をやっていきたいです。

 

■試験概要

1.そもそも『E資格』とは?

一般的な「そもそも」の説明は他サイトが圧倒的丁寧です。以下は私見です。

JDLAが行っている『G検定』がジェネラリスト向け資格で、『E資格』はエンジニア向け資格。モデルの構築・Python用いた『実装力』まで問う試験。と言いながら私は『実装力』はほぼアリマセン。。

現実的には「モデルの概要が理解できて、コードがある程度読めて、数式がある程度理解できているので、WEB掲載のコード読んで、コピペしながらなら、簡単なモノならギリギリプログラム作れるでしょ?」というレベル。。。

正直それでは「他のE資格ホルダーの迷惑だ」という反省から始めたブログでもあります。今が入り口。今からホンモノのE資格ホルダー目指します。

 

2.試験概要

正しくはJDLA公式サイトでご確認を。ざっくりいうと、

・受験資格は

①JDLAが認定した機関の「授業」(数万~数十万円/半年)を受けて「卒業」する。

②もらった「卒業証書」にかかれたコードで受験申し込みをする。

・「授業」とは?

その機関によって違うかもですが、私がお世話になったAVILEN様(神です)では、以下4つをこなさないと「卒業」出来ませんでした。。

1)「基礎講座修了試験」・・・数学とか、Pythonとか、基礎5科目試験。

2)「コーディング演習」・・・実際のコードの穴埋め課題。全12個?程度(ジゴク)

3)「プロダクト開発」・・・自分で何かプロダクト1つ作る(ジゴク)

4)「修了試験」・・・主に深層学習の内容・コード・式などの質問

・試験時期は?

年2回、2月末と8月末あたりに開催。それぞれ受験申込迄に「卒業証書」が必要。大体試験の1か月前迄に卒業が必要

・試験内容は?(目次)

シラバスこちら☟ 当ブログはこの「シラバス順」に進みます。

なので、当ブログの目次です。※グレー網掛は出題対象外と書かれています※

E資格シラバス

E資格シラバス


3.試験対策・勉強法とは(表記ルール)

試験で問われるのは、このシラバス掲載の各テーマ・語句について「機能・内容の理解(50%)」「計算式(25%)」「コーディング(25%)」という形

※()内はイメージでの出題割合です。

正直どれも逃げたくなるほど理解し難いです。ごまかしたくなります。

しかしここは腹を括って「ある程度、腹落ちするまで理解する」を心に決めてもらった方がいいと思います。

E資格は受験生(=卒業生)の70%は合格できますが、落ちる30%の人の特徴は「本当に理解することを避けた」じゃないかと思います。

「腹落ちするまで理解」は人によりけり、テーマによりけりかもですが、一定時間そのテーマのことについて「悩んでいただく」必要はあると思います。

仕事中や食事中は入浴中など、「あれって結局どうなってんやろ?」のスイッチを切らずに、自分でイメージを掴む必要があるかと。

数学・理系ってそういう世界らしいです。

『E資格』の勉強始める前に、ド文系の方にはこの漫画を1巻だけ読んでほしい。

「数学・理系の大学生ってこうなのか。。」あなたははそれをまんま経験しますw

 

勉強方法は

「認定プログラムを受けないとダメ」なので、それに沿って進むのがマストです。

このブログは「事前に軽く知っておこう」という予習部分を担いたいと思います。

「認定プログラム」自体は各機関によって長さが違いますが、ド文系の方は400時間以上かかると思った方が間違いないと思います。私は600時間はやったかと思います。

対象テーマが広くて深いので、やはり要約(圧縮)して再現(復元)できるようにするやり方が一番いいとは思います。

方法としては「三色ボールペン活用術」(結局かい。と思った方、スイマセン)

【黒:各テーマの要約】【赤:注意点を記入】【青:問題の解答から追記】で勉強進めながら手を動かして覚えていく方法。

結果こういうノートになったりします。G検定の時よりひどい。。

E資格ノートイメージ

この辺りは人それぞれかと思いますが、想像以上にテーマが「広い」し「深い」という点だけはご注意ください。整理しながら知識付け足していくイメージです。

私はこのやり方で勉強を進めながら、知識自体を整理し、新しい知識をつけ足していきました。

このブログでは、【黒:各テーマの要約】【赤:注意点を記入】をさらに極力シンプル化・イメージ化(近似化)してご案内できればと思っています。

表記ルールとして、「E資格」は各テーマの「要約ノート(カンペノート)」「その説明・解説」の2段構えです。あっさり仕立ての予定です。

「なんとなくイメージ」「極力シンプルなイメージ」を最重視してますので、間違いもあるやもしれません。ご容赦お願いいたします。コメントで教えていただけるとありがたいです。(何卒お手柔らかにお願いします。)

【G検定】⑦ 第4章 機械学習の具体的手法(0)概要 「いよいよド文系にはジゴクの始まり」

人生で初めてブログに読者がついでくださいました…ありがとうございます!

(こんなこと、ここに書いていいのかわかりませんが。。)

 

さて、いよいよ「機械学習の具体的手法」が登場します!

これまでAIの概要や歴史、問題点等‥まだ「読めば理解できる」世界でした。

ここからがG検定のジゴク(ド文系にとっては)「読めば寝れる」世界です。

本題に入る前に『何故ド文系にとっては「読めば寝れる」世界なのか?』

これ認識しておくだけで、ちょっと心持ち楽になると思うので、ご一読ください。

 

AIの『機械学習・深層学習』は数学の世界です。

AIは「何らかのデータ(X)を入力したら、何らかの出力・予測(Y)を得る」です。

これってつまり数式です。関数です。一番シンプルな関数は、

 

Y = 🔵× X + 🔴 (色付きの〇は🔵「重み」🔴「バイアス」とか言われます。)

(正しくは『Y = W *X+b』です。「アフィン変換」というらしいです。)

 

そして機械学習はこの🔵とか🔴とかを「機械的に学習する」方法です。

どうやって機械的に?「教師あり学習」だと「教師=答え=T」があります。

この答えTと予測Yの「差=損失=誤差」を使って🔵とか🔴とかを修正していく。

ちなみにその時の「差=損失」をグラフにしたもの「損失関数」と言います。

その「損失関数が最小化=損失が少なくなるように」学習していく。という流れです。

 

すでに眠たいですか?

これが一番シンプルな『機械学習』の『式=モデル』です。

そして『何故ド文系にとっては「読めば寝れる」世界なのか?』の説明ですが、

この時の『式=モデル』や『損失関数』がこの章の『具体的手法』の正体です。

例えば、具体的手法の①線形回帰で出てくる「リッジ回帰」の関数は、

リッジ回帰式

もう寝たくなりますよね?

『G検定』ではこの式自体は問われませんが、テキストに「リッジ回帰とは?」はこの式に基づいた説明がなされているわけです。(『E資格』はバンバン出てきます)

つまり「数学的素養」が無いと「何を言いたいのか?」すらも意味不明。

「数学的素養」があれば、この式自体は解らずとも、この式から「あーなんか出力との差を二乗で和してるのが『損失関数』いうのね。それに重みの2乗和の何か係数かけたのを『正則化項』いうのか~あーなんとなくこんなグラフかな?ちょっと数字入れてみようか。」とかになる。らしいです。

数学的素養がある理系の方々は、こういう「式の『本質的なイメージ』を弄ったり組み合わせたりして理解する」事を学生時代にされてきたので、理解が早いようです。

ド文系の私はこの【式の『本質的なイメージ』】がどーにもわからないものが多々あります。その代わり私は【式の『なんとなくイメージ』】を手に入れました。そして『なんとなくイメージ』でG検定もE資格も乗り切りました。(もちろん必死に理解しようと、WEBみたりYoutube見たりした末にです。ただのイメージではないのでご安心下さい。)

つまり『なんとなく』≒『本質的』大差ないレベル(数学的に言うと「近似化されてる」)にはできてると思います…自信ないんですが。

ついでにですが『なんとなく』すらも無視しているところもあります。「もう、そういうもんやと理解しとこ。」と言うヤツです。この先ご了承ください。

 

というわけで今回のカンペノートは極少。4章の1項目のみです。

**********

4-1.機械学習の具体的手法(0)概要

機械学習の種類→「課題の構造別」モデルはたった3種類

機械学習にも向き・不向きがある※

教師あり学習・・・答え(教師)あり学習。(回帰・分類) 

教師なし学習・・・答え(教師)なし学習。(構造・特徴)

強化学習・・・それ以外学習。(行動学習)

**********

今後の項目ではこの①~③の具体的手法(例:「リッジ回帰」とか)が出てきますが、まずは「課題の構造別には3種類に分類されるんやな」とご理解ください。

ちなみに「課題の構造別」に3種類に分けてるだけで、今後「分野別に」も分けて説明始まるので「あ~課題の構造別なら3種類に分けれるんだね」ぐらいでご理解ください。これが結構混乱するハメになります。

 

それぞれがちと意味わからんかもですが、

教師あり学習というのが上述した通り「答え(教師=T)と予測(Y)の差を『誤差』として使って、回帰(売上予測とか、そういう予測の問題)や分類(写真を見せて「イヌ」とか「ネコ」とか正しく分類する問題)という問題を解くモデル」です。

教師なし学習というのが、そういう「答え(教師=T)」がないモデルです。たとえば、無数にあるニュース記事を「似たニュース同士に分類して」や、無数にある商品を「特徴や相関(お互いの関係性が強い弱い)に応じて分類して」などが該当します。分類ちゃうんか?と思われるかもですが、「答え(教師=T)」が用意されているわけではない点が違います。

強化学習は「それ以外」です…「え?」と思われるかもですが、そう認識下さい。具体的にはオセロ・囲碁などのゲームや自動運転が該当します。

 

ここで重要な事は、ご覧の通り「弱いAI」は、人のごく一部の機能を、人工知能にて解決するものですので、課題に応じて適切なモデルを選んでやる必要があります。

機械学習にも向き・不向きがある※はまさにそのことで、G検定を学ぶ最たる必要性はこの点にあるかと思います。

「ぉ~データぶち込んどいたら、なんかいい感じに応えだしてくれるのがAIのいいところやろ?」という四次元ポケットか何かと勘違いした『旧ドラえもん世代』が世の中にはまだまだ多数おられるとか。。

もしシステム発注者側の上席者がそんなことポロっとでも発言したら・・・受託側の理系エンジニアは「ジゴクの始まりか」と思うでしょうね。。。自戒。

 

【G検定】⑥ 第3章 人工知能分野の問題 ・・・「20年後、人間社会は終わる」

「20年後、人間社会は終わる…」

かもしれないという話。「んなアホな。。またまた~」とはいえ単に冗談でもない。。

2017年にこんなニュース出たのはご存じでしょうか?

「2つのAIが“独自言語”で会話」の真相--FacebookのAI研究開発者が明かす - CNET Japan

この研究では「AI同士で価格交渉しろ」「言語は好きにしていい」という実験で、価格を上げたいAIと、価格を下げたいAIで、お互い合意できるように交渉するというテーマだそうですが、途中からワケわからない言語で会話を始めて、実験が強制終了した。という話です。(実際は「別にパニックで強制終了したんじゃない」そうですが)

これ「半分本当、半分冗談」らしいですが、誰でも使えるディープラーニングの技術が「人間より高い知能」を得て、どこかの誰かが変な目的でソレを使い、AI同士で進化し合って、聞いたことない言語で会話し始めて、「じゃあロボット作りましょうか(目的不明)」なんてことになったら・・・まさにターミネーターの世界。。

というのが、今回のテーマ『人工知能分野の問題』の一つ、『シンギュラリティ(技術的特異点)』のお話でした。それが「2045年にはそうなる」そうです。。なんなら「人間より高い知能」は「2029年にはできる」・・・恐っ。。

しかし今回のテーマ『人工知能分野の問題』はそんな恐い話ばかりではなく、「え?かわい。。」という話から「ぉお。。深いな。。」というテーマまで、盛りだくさん。結構楽しい章ですね。

「そんな面白いんや・・・」と気になった方は、是非テキスト+WEBで深堀してみてください。ココは試験用のカンペノートなので、要約(割愛)させていただきます。。

**********

3.人工知能分野の問題

①トイ・プロブレム(おもちゃの問題)

「AIで解ける問題は所詮オモチャの問題よ!」という問題。コレはだいぶクリア。

②フレーム問題(1969.ジョンマッカーシ&パトリックヘイズが指摘)

人工知能研究最大の難問。未だ解決されていない。

「今しようとしている事に『関係する事柄だけを選び出す』事が非常に難しい」問題。

例)ロボットに「洞窟にあるバッテリー(爆弾付き)を取って来い」と命令する。

・ロボット1号「そのまま爆弾付きで持ってきて爆〇」

・ロボット2号「持ち出す方法を計算中に、時間切れで爆〇」

・ロボット3号「持ち出す方法の計算方法の計算中に、時間切れで爆〇」

→人間はあらゆる状況考えてフリーズするなんて事はナイ。

チューリングテスト(byアラン・チューリングチューリングマシーン」)

人工知能が出来たかどうか?」ELIZA効果から生まれたテスト。「人と間違うぐらい自然な会話できるAI」を合格とする。1991年から「ローブナーコンテスト」に名称変更。2014年にユージーングーツマンが初の合格者(でも物議醸してる)

・やり方:見えない部屋にAIと人を入れ、それらに試験官が会話する。そしてどちらが人かを当てる(AIを「人だ」と判定されたらそのAIは「合格」)

「結局見た目で人かAIか、判断してるだけでしょ?」というスタンスの実験。

④強いAI・弱いAI(byジョン・サール@米哲学者)

「本当の心を持つAI(人工知能)はコンピュータで実現できる」(強いAI)

「いや、そんなの必要ない。AIなんて便利ツールで十分よ」(弱いAI)

「ちなみに心って何ですか?意味って何ですか?」=「意味論の欠如」(強いAI/弱いAI問題)

・実験「中国語の部屋」(チューリングテストの拡張版)

・やり方:箱の中に中国語辞書持たせたフランス人入れて、箱の中身を知らないアメリカ人に、中国語の文章を箱の中に投函させる。箱から英訳された文章が出力されるのを見て「ぉお!スゲー自動翻訳機やん!」と言わせる。

・何が言いたいか?:心持ったフランス人。文章の意味も解らず英訳。出てきた文章みて「おぉ!自動翻訳!」言うアメリカ人。「何これ?」という話。

⑤シンボルグラウンディング問題(byスティーブンハルナット@認知心理学者)

別名「記号接地問題」=「記号」と「意味」が「接地(繋がる)」か?問題。人工知能の難題と言われている。

例)「シマ(記号…柄)」+「ウマ(記号…イメージ)」=「シマウマ」がイメージできるか?「初めて見たけど、多分あれ、シマウマやんな?」と、コンピュータが言えるか?という問題。

⑥身体性

「知能の成立には身体が不可欠」「コンピューターは体ないやん」という問題。

例)「水」というモノが持つ、意味や概念…これは「触って」「見て」「飲んで」みないと、正確な意味や概念が習得できない。「水のように生きよ」言われてもコンピュータは「意味わからん。水は生き物ちゃうし。」になってしまう。

⑦知識獲得のボトルネック(前述なので割愛)

例)「He saw a woman in the garden with a telescope」を和訳で

人:「彼は望遠鏡で、庭にいる女性を見ていた」(変態だな。困ったヤツだ。)

AI:「彼は、庭で望遠鏡持った女性を見た」(そんな女性、普通いるか?)

知識獲得には「一般常識」がナイと無理。でも「一般常識」は変化する。獲得難しい問題(ライトウエイトオントロジーでだいぶクリアされつつある。自然言語処理参照。)

⑧特徴量設計(特徴量エンジニアリング)

「注目すべきデータの特徴」の選び方問題。

昔は人が全部やっていたが、今は「特徴表現学習」進んで、AI自身もやれるように。(つまりクリアされつつある)

しかしAI自身が「注目すべきデータ」を選べるようになることは、つまり「何を注目すべきデータとして選ばれたのか?」が人が解らないという問題がある。(ブラックボックス型のAI)

これは医療AIなどで特に問題視される(「ガンです」「本当ですか?」「ってAIが言うてる」では使いモノにならない)→なのでXAI(eXplainable AI:説明可能AI)が重要に。

⑨シンギュラリティ「技術的特異点」(前述の通り)

人知を超える知性の誕生は「2029年に」それによって技術進化速度が無限大になり、何が起こるかわからない世界になるのは「2045年には」byレイ・カールワイル

「人類終焉」byスティーブン・ホーキンス@宇宙学者

「かなり慎重に取り扱うべき」byイーロン・マスク

人工知能に懸念」byビル・ゲイツ

人工知能に関する倫理委員会」by Google→2014「日本人工知能学会倫理委員会」設立

**********

カンペが長くなったので、後書きも割愛。

しかし「フレーム問題」の「人にはこんなことは起きない」については一言モノ申したい。。「人間には起きない」ってそんなことないし、そもそもこういう人いますよね?

「永遠に計画練ってる人」・・・いませんか?爆〇しちゃいますよ。。

【G検定】⑤ 第2章 人口知能をめぐる動向(3)機械学習・深層学習 ・・・「今のAI、すべては『誤差逆伝播法』のおかげ。考えた人天才。」

ニューラルネットワークを多層化し、誤差逆伝播法を用いることで、単純パーセプトロンの限界を克服することができるようになりました。」

公式テキストには確かこんな感じで書かれていたような・・・

まるで「誤差逆伝播は『常識』の一つですよね?」とでも言わんばかりに。。しかも「え?常識ですからそんな説明する必要もないかと。。」とでも言わんばかりに、サラ――っと紹介して・・・

んな雑な紹介でいいんですか?これがなければ今の深層学習はなかった技術だろうに。確かに「深層学習の勉強するなら『常識』ですね」でしょうが、初学者にそれ求めるなっちゅうねん。。

誤差逆伝播法の説明自体は後述しますが、G検定公式テキストでは結構こういう「不親切箇所」が多々あります。おそらく「自分で調べてみてね」ということかと思いますが、ド文系脳の私からしたら、この「自分で調べてみてね」がめちゃくちゃ苦痛・・・と言いますか「自分で調べた結果のレベルが、テキストのレベルと合致しない」という気持ち悪さに躓くことが多々ありました。

どういうことか?といいますと、上述の通り、テキストでは2~3行ぐらいでサラリと説明されており、「キーワードとして意味わからんな」と思って『誤差逆伝播』を調べると、「誤差逆伝播とは、ニューラルネットワークの学習アルゴリズムである。数理モデルであるニューラルネットワークの重みを層数にかかわらず更新できるアルゴリズムである。そのアルゴリズムは次のとおりである・・・」もうええて!2~3行ぐらいでさらっと説明してほしいねん!

で、「もっとわかりやすい説明ないかな・・・」でWEB探し回る。それぞれ書いてることがちょっとずつ違う。イメージもしにくいのでYOUTUBEも漁る。ようやく「あ~なんとなく誤差逆伝播法、イメージできました。」はい3時間。みたいな。

テキスト自体400ページほど1冊だけなので、読むだけなら1週間もあれば十分読める量ですが、随所随所「は?」「なに?」調べて進めていくハメになります。後のE資格はもっとその能力が必要になるので、たしかに「解らないところは根気良く調べる」能力は重要なのですが、「AI学習」の入り口に「G検定」据えるなら、もーーーちょい初学者にやさしくしてもいいのでは?とは思います。「G検定」事態の歴史が浅いためか、受験生も少ないためか、公式テキスト以外の良いテキスト本がない。。作ろうかな。。

愚痴で1000文字…申し訳ありません。今後は反省して修正いたします。誤差逆伝播法なだけに。。この項目のカンペノートはこちら。

**********

2-3.機械学習・深層学習

機械学習

・・・人工知能のプログラム自身が学習する仕組み。サンプルが多ければ多いほど望ましい学習結果が得られる=2000年以降のインターネット普及による急増したデータ(=ビッグデータ)が機械学習を実用レベルに押し上げた。

②深層学習

・・・機械学習を進化させて「多層的ニューラルネットワーク」にして表現力(いろんな複雑な出力ができる能力)を大幅に上げたもの。

 

図:機械学習と深層学習 年表込み

 

・深層学習の問題点

「単純パーセプトロンの限界」(線形回帰問題(直線で表せるような問題)しか解けない。)があったが、逆に「多層パーセプトロン」にしても学習精度が上がらない(修正箇所が多すぎて、学習精度を上げるのが困難)という問題があった。

・二つの大きなブレイクスルー

1)誤差逆伝播法(バックプロパゲーション

・・・損失関数(予測と正解の差『誤差』)を最小化するように、各係数(『重み』や『バイアス』)を自動で調整する仕組み。簡単に言うと、最後答え合わせして、間違いを基に、微調整を「自動で」する仕組み。この「自動で」がとんでもないポイント。「自動でやってくれるなら、ちょっと複雑なモデル組んでも調整楽だし、できるな。」で複雑なモデル(多層パーセプトロン)が組めるようになった。

2)自己符号化器(オートエンコーダー

・・・自分を入力し、それを一度「圧縮したデータ」を出力する。そこから、もう一度自分を復元化する器。「それの何がええのん?」ですが、ポイントは「圧縮したデータ」から自分を正確に復元化できること。つまり「圧縮したデータ」に「復元に必要な要素(特徴量)が正確に詰め込まれている」ことになる。これによって膨大な量のデータを扱えるようになったり、特徴量をつかみやすくなったりした。

③新時代を切り開くディープラーニング

・・・2012年ILSVRC(Imagenet Large Scale Visual Recognition Challenge)画像認識大会 →チーム名「Super Vision」モデル名「Alex Net」byジェフリー・ヒントン@トロント大が圧勝!

従来)「特徴量決めるのは人」 → 新)「深層学習にて特徴量まで自動学習」

従来)ERROR率:26%台(前後1%程) → 新)Alex Net 15.3%!!圧勝!!

2015年には人間の画像認識ERROR率4%を切って、3.6%をたたき出した。

**********

 

いや~2012年ILSVRC、めちゃくちゃ盛り上がったでしょうね。。それまでは「いかに最適な特徴量設計を人が行えるか?」みたいな流れで、28%・27%・26%・・・「よし!優勝狙えるぞ?!」というチームが犇めく中、「15.3%??はぁ??」で圧勝。。さぞかし驚愕だったでしょうし、その場に参加した人々はみな、新たな時代の進歩を目の当たりにしたことと思います。一度でいいからそういう現場、立ち会ってみたいです。。

実際この時の『Alex Net』は、画像認識の『基礎』と言われる技術をすべて包括したモデルで、『CNN』だけじゃなく、『GPU利用』『ReLU』『データ拡張』『ドロップアウト』(全部後の章で出てきます)等々、単に「革新的技術一つでずばーんと行きました」ちゅうわけじゃない、細やかな課題解決の努力の結晶でした。しかし当時としては『驚愕・・・』だったこれら各種テクニックが、たった10年ちょっとで、今となっては『基礎』なわけですから。。技術革新の進化の速さは恐ろしいですね。。

ちなみにこのジェフリー・ヒントンさん、後で調べたら現在トロント大学の名誉教授。先に紹介した『誤差逆伝播法』『自己符号化器』もこの人が考えた(うちの一人)だそう・・・知らずに「考えた人天才」とかいうてました。ほんとに天才だったのね。。その功績から2018年に「計算機科学のノーベル賞」といわれるチューリング賞を受賞。同賞はヤン・ルカン(ニューヨーク大・Meta・確かこの人も誤差逆伝播の開発の一人)、ヨシュア・ペンジオ(モントリオール大)も受賞されているそうで、この三人は「AIのゴッドファーザー」と言われているそう。。かっこよすぎ。。2023年5月「AI発展が自身の想定超えている。AIの危険性を伝える。」ために所属していたGoogleを退職・・・技術革新の進化の速さは、、、ほんとに恐ろしいんですね。。

【G検定】④ 第2章 人口知能をめぐる動向(2)知識表現 ・・・「世の高校生の『読解力』はコンピューター以下」

『読解力』とは・・・

自らの目標を達成し、自らの知識と可能性を発達させ、効果的に社会に参加するために、書かれたテキストを理解し、利用し、熟考する能力 by OECD経済協力開発機構

あなたは『東ロボくん(とうろぼくん)』をご存じでしょうか?

「ロボットは東大に入れるか?」を目標に、日本の国立情報学研究所プロジェクトリーダー:新井紀子教授)が中心となって、2011年から研究・開発が進められている人工知能の名称です。

この『東ロボくん』は2016年のセンター試験で偏差値57.8をたたき出しましたが、残念ながらこの時点で「読解力の限界」ということで東大入学を断念。このことを新井教授は「知識に比べ幼稚な知性」と表現しています。AIの課題が浮き彫りになったプロジェクトでした。

しかしこのプロジェクトで浮き彫りになったのは「え?世の高校生って東ロボ君以下の『読解力』しかないの?」という別の課題。こっちのほうが衝撃的だったようで、2016年新井教授は中高生の『読解力』向上を目的とした『リーディングスキルテスト』というプロジェクトを発足しています。AIの裏側を知るものとして「え?こんなんよりもヤバいの?」というのは「東ロボくんどころではない…」という危機感をもったのかもしれません・・・知らんけど。

 

東ロボくんに読解力は追いつかないかもしれませんが、我々は別の能力を持っているかもしれません・・・その能力発揮する、本項目のカンペノートはこちら。

**********

2-2.知識表現

①人口無能

ELIZA/イライザ効果(1966)ただただオウム返しするプログラムに、「知性を感じる」という効果。「何困ってる?」「それについてどう思う?」「例えば?」を繰り返されるだけで、人は「ELIZAなんでも相談乗ってくれる…素敵♡」になるそう。←「あほか!んなもん知性ちゃう。無能や。人口無能や!」byジョセフ・ワイゼンバウム

エキスパートシステム(知識ベースの構築)

・DENDRAL(1960)世界初のエキスパートシステム「未知の有機化合物を判定する方法」byエドワード・ファインバウム「知識工学」という言葉使った。

・MYCIN/マイシン(1970)緑膿菌判定(伝染病の血液疾患)にて、専門家でも正解率80%の判定を69%の精度で判定した。

エキスパートシステムの限界(知識獲得の限界)

知識獲得リソースは『資料・文献』『事例』『専門家のノウハウ』あったが、このうち『資料・文献』『事例』はデータベース化できたとしても『専門家のノウハウ』はインタビューで収集しなければならないコストの高さと、言ってることが矛盾しているがノウハウとしては合っていることも多い。また一般に『暗黙知』と言われるものは『常識的な知識』が備わっていないと理解できないことが多く、この『常識的な知識』をどうするねん?というところで「知識獲得の限界=エキスパートシステムの限界」となってしまった。

といっても『常識的な知識』をどうするねん?方法で④⑤の研究が進んだ。

④意味ネットワーク・・・言葉の「概念」と「概念間の関係」をネットワークで表現

・「is-a」の関係=継承関係(上位ー下位概念)例)生物ー人間ー太郎

・「part-of」の関係=属性関係(全体ー部分概念)例)車ータイヤーホイール

オントロジー・・・「知識の共有と活用」を目的に、「知識を体系化する方法論」

【言葉(語彙)】【その意味】【それらの関係性】→他人と共有できるための約束事(仕様) 例)#$isa #Bill Clinton #US President (米大統領ビル・クリントン

でも⑥が出てきてまた頓挫・・・

⑥推移律の問題・・・「part-of」の関係は少なくとも5つ以上あり「推移律が成立しない場合がある」※推移律:A=B、B=CならばA=Cでしょ?というルール。これが成り立たんと意味ネットワークに基づいてオントロジー組んでも意味がなくなる。。

これに対して人類がとった方法は⑦の二つ。。

オントロジーの構築

・ヘビーウエイトオントロジー(重量オントロジー)「推移律の問題?知るか!全関係性整理して、すべての一般常識をコンピュータに取り組んでやる!」=Cyc(サイク)プロジェクト(1990~現在)30年以上手作業にて。。恐ろしい超野心的活動。

・ライトウエイトオントロジー(軽量オントロジー)「いやいや、使えればいいですやん?!正当性とかちょっと無視しましょう。概念間の関係とか、多分こう?位ざっくりでOKでしょ!人間もそんなもんですやんw」=ウェブマイニング等。恐ろしく超手抜き。でも主流の考え方。

⑧事例

・ワトソン(2011)byIBM・・・「拡張知能AI」と呼んでる。クイズ番組「ジョパディー」で優勝。ライトウエイトオントロジー利用し、質問に含まれるキーワードと関連しそうな回答を高速検索。つまり「意味を理解しているわけではない」

・東ロボくん(2011)・・・東大入試合格目的。2016年偏差値57.8で「読解力限界」ということでプロジェクトいったん凍結。全国の高校生が愕然。

**********

この辺はほんとにAIの学習か?とすら思ってしまいますよね。。「知性とは何か?」「コミュニケーションのためには『一般常識』が必要だ」等々。。AIの研究ってそういうところとも繋がっているのが面白い。実際この後ライトオントロジーを主流として言語モデル・生成モデルが出来上がっていき、ChatGPTなどのテクノロジーができ上るワケですが、ではその自然会話可能なChatGPTは「意味が解っているのか?」「知性はあるのか?」「いや知性ってそもそも何?」という問題は未解決のままです。

しかしそもそも人間にも同じこと言えますよね?「意味を分かっていると本当に言えるのか?」「自分は知性というものがあるのか?」大半の人々の『読解力』がAIより低いと分かった今、AIの知性より人間の知性のほうが「怪しくないか?」という気がするんですが。

ちなみに東ロボくん、2016年にプロジェクト断念したわけではなく、その後も引き続き研究開発は続けられ、2019年には偏差値60を超えたそうで。。

こりゃいよいよ人の知性のほうが怪しいですね。磨いていきましょう!

 

【G検定】③ 第2章 人口知能をめぐる動向(1)探索・推論 ・・・「『宇宙の水素原子』を数えたほうがマシな世界」

2-1.探索・推論

「『宇宙の水素原子』を数えたほうがマシな世界」

あなたは「宇宙の水素原子が何個あるか?」ご存じでしょうか?

『10の80乗』だそうです。

「へぇ~」じゃなくて、続きがあります。

あなたは「囲碁の打ち手が何パターンあるか?」ご存じでしょうか?

『10の360乗』だそうです。

「えっ?はぁ?」じゃないですか?いや、衝撃的。

ハチワンダイバー』という将棋棋士のマンガがあるんですが、主人公が「ダイブ!」ゆうて、将棋盤の中の『宇宙』に潜るという…(何ってるかわからんと思いますが)この将棋の打ち手パターンも『10の220乗』だそうです。当時は「またまた。大げさな。。」と思ってましたが、トンデモナイ。宇宙の水素原子、何回数えたらええねん。。棋士の世界が『宇宙規模』というのも納得です。

さて、先の章(【G検定】②)で「2015年 AlphaGOがプロ棋士に勝利」と紹介しましたが、これがトンデモナイ事というのが伝わりましたでしょうか?

ド文系脳で考えた場合「打ち手の全パターンを記憶して、勝つパターン選んだらええやん」とか簡単に言いそうな話ですが、理系脳の方からすれば「そりゃそーなんですがそんな簡単な話じゃないっちゅうねん!」という話。こういう構図・・・社会のそこら中にありそうですよね?AI開発の依頼事とかする時など特に。理系脳方々を無駄に疲弊させたりしないようにしたいものです。。自戒。

 

そんな宇宙規模の「探索・推論」を行う技術を、ギュッと数行に凝縮したカンペノートはこちら。まずは「こんな考え方で進化したのか~」程度でご確認を。

 

**********

2-1「探索、推論」

①迷路(探索木) 

迷路・探索木

1)幅優先探索(左・右)・・・〇最短距離で解答・×メモリ不足あり得る
2)深さ優先探索(左・右)・・・〇メモリ軽い・×メチャクチャ時間かかるかも

分岐点のパターンを樹形図にして、それを幅で左優先(S→A→B→…)で探索したのが「幅・左優先探索」…言葉の通り。「深さ・右優先探索」だったら(S→B→A→…)となるだけ。

 

ハノイの塔

ハノイの塔

 1・2・3のリングをP・Q・Rの塔に移動させていった時のパターンを探索

 

③ロボットの行動計画(プランニング)

ロボットの行動計画(プランニング)

STRIPSは3つのステータス(前提・行動・結果)のパターンを探索してプランニング。

SHRDLUは空間上に「積み木」を配置し、それをロボットに指示(言語)出した時にロボットが可否を判断し、返答を返して実行するプログラム。→後に自然会話研究の「CYC(サイク)プロジェクト」へつながる

 

オンボードゲーム

オセロ(10**60)<チェス(10**120)<将棋(10**220)<囲碁(10**360)

※10**60・・・「10の60乗」という意味

「網羅できるわけない!」→「そうだ『探索木』+『コスト』で負担減らそう」

・コスト…状態が「有利」か「不利か」の「スコア」を経験則からストックし、「次のスコア」を推論して、探索をできるだけ減らす。コスパ良い探索行うための概念。

・MIN-MAX法(+αβ法)…自分の手は「有利に」(それ以外を切る=αカット)、相手の手は「(自分にとって)不利に」(それ以外を切る=βカット)

モンテカルロ法…完全ランダムで手を打ち、プレイアウト(勝ち負けつける)まで行う。その結果のパターンから最良のものを選ぶ。要するに力業。(パターン多すぎると使える方法ではない。。)

・「AlphaGO」はDNN(ディープニューラルネットワーク)とMCTSモンテカルロ木探索)を用いて棋士に勝利

**********

 

個々の単語の詳細は、こちらのHPが親切丁寧なのでご参照を。

AI(人工知能)用語集 | AIZINE(エーアイジン)

ここで特に重要(試験出る)なのは下記3点

1)①迷路の「幅・深さ」「左・右」優先のルールを理解する

2)オセロ~囲碁の難易度順番(パターン数までは覚えなくてもOK)

3)MIN-MAX法(+αβ法)の考え方。

探索の優先ルールはホント言葉通り『幅』なら1段目・2段目・3段目を『左優先』ならこっち向き『→』で調べる。だけ。『深さ』なら縦の経路をたどって、一番深いところまで行ったら、1個手前戻ってまた縦の経路をたどる。だけ。言葉が指す通り。でもなぜか混乱するので、自分で探索木を手で追ってみるのがオススメです。そのうえで「何でメモリを食うのか?」を考えてみるとわかりやすいかも。幅探索だったら探索した分は全部記憶しておかないとダメですもんね。深さ探索なら一旦最後まで探索し終えたのち、それが解でないなら忘れていけるメリットがあります。これはどちらが優劣という話ではなく、例えば作るプログラムが、スマホに載せるものなら、少ないメモリしかないので、時間かかっても深さ探索方法をチョイスせざるを得ない…というような話。

オセロ~囲碁は、間のチェス・将棋が特に問われるポイントですが、「チェスは1997年に『ディープブルー』byIBMが勝った。囲碁は2016年『AlphaGO』が勝った」という話を覚えておけば大丈夫かと。チェスと囲碁で20年近くかかったんすね…囲碁スゴ。。

MIN-MAX法とαβ法は、このサイトが有難いです。【G検定】Mini-Max法とαβ法~具体例でわかりやすい解説を試みてみた~ (pictblog.com)

ピクトの思考録・・・平成生まれでこの知識量?スゲー人が居るもんだわ。。ド文系で営業しかしたこと無い私からしたら「天才」にしか見えん。こういう人がゴロゴロしてる世界なんだから恐ろしい。。何で世に出てないのか?出てるのかな?先のAIZINもスゴイサイト。あんな解りやすく書かれてるサイト、あまりお見かけしない。

そういう「解りやすい」説明をしてくれる人やサイトだけを「探索・推論」出来るプログラムを是非作ってみたい。「解りやすさ」の定義が人によって異なるので難しそうだが、いつかチャレンジしてみたいものです。