人口知能

近年、データを取り扱う上でAI(人工知能)・ビックデータなどを併用することが欠かせなくなりました。
本章では、一般社団法人日本ディープラーニング協会が提供しているG検定のシラバス2024年 (試験範囲)のキーワードをベースに説明していきます。

人口知能の定義

AI(人工知能)とは、一般的に機械が人間の脳のように知能を使いインプットしたものから判断して能動的な結果(動作含む)をアウトプットすることが考えられます。
人工知能の定義は正式なものがないため、同じシステムであっても人の解釈によって内容が異なることがあります。
知能の全体像は3つの階層で、第1階層はパターン認識になり、環境からの情報のセンシングとそれに応じた行動というループが基本です。
第2階層は、記号の処理で、人間は見たものを通じて物事を抽象的に認識できるようになっています。
第3階層は、他とのインタラクションで、人間が知識を獲得してく上では不可欠な営みです。
知能を簡単に定義すると以下になります。

AIとロボット

ロボットをAIと思われる方も多いのですが、ロボットは決められたプログラムをそのまま実行して結果(動作含む)を出力(行動)するだけのロボットでしたらAIと定義されず、ソフトバンクのロボットであるPepperくんのように頭脳があり知能を使っているロボットはAIと定義されます。

AI効果

人工知能の定義(AIの定義)は、前述している通り人それぞれ定義が異なりますので、AIとして実行していると定義しているものでもその処理の内容が分かり知識が使われていないとAIではないと結論付けされてしまうことがあり、それをAI効果といいます。
また、ユーザを補助するためにルーチン業務を人に変わって処理してくれることをAIエージェントといいます。

AIのレベル

AIのレベルは分類分けされていて、次のように記載します。

人工知能研究の歴史

人工知能は1956年に初めて登場してからブームと冬の時代を繰り返してきました。その人工知能の歴史について記載していきます。

1946年~

第1次AIブーム

AIとしては、推論・探索の時代。
1946年に世界初の汎用コンピュータであるエニアック(ENIAC)が登場して、コンピュータが人間を超えると感じた。
1956年にジョン・マッカーシーが世界発のAI分野であるダートマス会議を実施した。
その会議で初めて人工知能プログラムのロジック・セオリストが発表された。
これにより、第1次AIのブームが発生した。

1974~年

ブーム終息、冬の時代

簡単なゲームのような問題しか解けないトイ・プロブレム問題が発覚し、AIへの期待感は失われ第1次AIブームは終息した。

1980年~

第2次AIブーム

AIとしては、知識の時代。
専門分野の情報をコンピュータにインプットすることで専門家のように対応できるエキスパートシステムが登場した。
1982年には第五世代コンピュータが登場した。

1995年~

ブーム終息、冬の時代

コンピューターに情報を登録することの難しさがあり、第2次AIブームは終息した。
1997年にIBMのDeep Blueが世界チャンピオンにチェスで勝利した。

2006年~

第3次AIブーム

機械学習と特徴表現学習の時代。
2011年にIBMがWatsonを公開した。
機械学習にビッグデータを活用して実用化された。
知識を定義する要素である特徴量を人口知能が自ら学習が行えるディープラーニングが登場した。
2016年にGoogle(DeepMind社)のAlphaGoがプロの囲碁棋士に勝利した。
AIが人を超える転換点(シンギュラリティ)をレイ・カーツワイルが提唱した。

2023年~

生成AIブーム

生成AIの時代。
2022年11月に生成AIであるChatGPTがリリースされて12月4日にユーザー数が100万を突破した。 また、画像生成では著作権の問題やフェイクニュースがネットに拡散される。
また、MicrosoftやGoogleなどの各社が生成AIをリリースして競争が激化

人工知能をめぐる動向

第1次AIブームから人工知能をめぐる動向について記載します。

探索・推論

AIという言葉が発生した第1次AIブームの推論・探索の研究について記載していきます。
探索としてコンピューターが迷路のゴールにたどり着くための方法には探索木があります。
これは、ゴールまでの道をいくつも探索してその道をツリー構造として保持することです。
探索方法として、幅優先探索と深さ優先探索があります。
幅優先は分かれた道で近い道から順に全ての道を辿っていくためたくさんの道を記憶していきますが、深さ優先は深さを優先するため進める限りの道を進んでいきます。運がよければ最短の道でゴールに到着できます。
探索木を利用することで、ハノイの塔というパズルも解くことが可能です。
ハノイの塔は全ての円盤を他のポールに移すまでの最短手順を考えます。
ハノイの塔の問題を解くためには、コンピューターが理解できる形式(それぞれの円盤がどのポールに入っているか判断できる状態)にする必要があります。
また、探索を利用するとロボットが行動する計画を作成することが可能です。
ロボットの行動計画をプランニングといい、前提条件を設けて行動と結果を記述してロボットに行動させます。
ここで記述した前提条件・行動・結果の組合せのことをSTRIPSといいます。
SHRDLUのプロジェクトではプランニングで積み木の世界を英語で支持して物体を動かすことに成功しています 。
歴史に記載していますが、2016年3月にGoogle(DeepMind社)のAlphaGoがプロ棋士にディープラーニングの技術を利用して勝利しました。
囲碁についても探索は行われており、知識や経験を活用して効率よく探索するためのコストを算出したヒューリスティックな知識が利用されました。
ボードゲームの組合せの数は、「オセロ < チェス < 将棋 < 囲碁」となり、囲碁がとても多いです。
このようなボードゲームでの戦略には、Mini- Max法があり、自身の行動時のスコアを最大化(自身が有利になる)して、相手を最小化する戦略になります。
Mini-Max法の探索をできるだけ減らす方法としてαβ法があり、探索の道を削除するaカットと分かれ道を切り捨てるbカットがあります 。
ボードゲームで最善手を考える場合のシミュレーションの場合、終局までの道筋をランダムに決定するプレイアウト法、モンテカルロ法では一定の局面まで進むとプレイアウトを用いてスコアを評価します。
また、総当たりで評価するブルートフォース探索もあります。

知識表現

第2次ブームで中心的な役割を果たした知識表現の研究とエキスパートシステムについて記載していきます。
決められたルールに従って会話が行えるイライザ(ELIZA)と呼ばれるチャットボットが1964年に登場しました。
当時、イライザと会話している人は、人と話しているかのような錯覚をしてしまい、それをイライザ効果と呼びました。
しかし、イライザは会話の内容が理解できているものではないため、人工無脳と呼ばれています。

第2次ブームは知識を取り込み専門家のように対応できるエキスパートシステムが多く利用されました。
エキスパートシステムでは莫大な知識が必要のため、Cycプロジェクト(全ての一般常識{哲学的に正しい知識}を取り込む)があります。
その中でも血液中のバクテリアを診断支援するマイシン(MYCIN)や知識工学を提唱したDENDRALがあります。
しかし、知識ベースのシステムを構築するには、莫大な知識獲得がボトルネックとなり、エキスパートシステムの限界が見られました。
そのため、ウェブにあるデータを解析してウェブマイニングが利用されたり、インタビューシステムの研究が行われました。

構造モデルとして、意味ネットワークがあり、概念間の関係として、以下があります。
is-aの関係:継承関係で上位概念と下位概念があります。
part-ofの関係:属性で〇〇の一部などになります。
has-aの関係:包含関係です。

概モデルを記述する方法として、オントロジーがあります。
オントロジーで定義される関係として、is-aの関係とpart-ofの関係があり、is-aの関係は常に成立するがpart-ofの関係では推移律は必ずしも成立しません。

オントロジーの構築として正しさを深く検証しないライトウェイトオントロジーと意味関係を正しくするヘビーウェイトオントロジーがあります。
2011年にクイズ番組に登場したワトソンはQuestion-Answeringというライトウェイトオントロジー生成しています。

日本でも東京大学の入試合格を目標とした東ロボくんの開発がされましたが東京大学の水準には達しませんでした。

機械学習・深層学習

第3次ブームとなっている機械学習、ニューラルネットワーク、ディープラーニングの研究と歴史、それぞれの関係について記載します。
機械学習は、その名の通り、機械が自身で学習していくことです。
通常、学習するデータのサンプルが多いほど、学習結果は良い結果になります。
現在では、Web上に存在しているビッグデータが活用されており、必要な情報をデータマイニングして、レコメンデーションエンジンやスパムフィルターなどで利用されています。
テキストデータである日本語や英語などの言語を分析することを自然言語処理といい、統計学を用いたものを統計的自然言語処理といいます。
統計的自然言語処理を利用した翻訳では、コーパスを保持し、単語から関連する言葉を導いていきます。

次に機械学習の一つであるニューラルネットワークですが、これは人間の神経回路の仕組みを機械で扱えるようにしたモデルです。
ニューラルネットワークの前身である単純パーセプトロンがあり、これは入力・出力のモデルで入力の結果0または1を出力します。
単純パーセプトロンの起源としては形式ニューロンがあります。
AIでは単純パーセプトロンでの限界が指摘されてしまい、単純パーセプトロンを複数つなぎ合わせた多層パーセプトロンが提案されましたが結果との誤差が計算できませんでした。
しかし、多層パーセプトロンでは誤差逆伝播法(バックプロパゲーション)で克服し、シグモイド関数を利用して表現力を高めたものがニューラル・ネットワークです。
さらにニューラル・ネットワークを多層にしたものがディープラーニングになります。
ディープラーニングの発達で、画像から文字を取得するOCRの性能が向上しました。
ディープラーニングでは特徴量の抽出(特徴量を取り出す処理のこと)を機械が自動的に行います。
入力と出力が一致するように学習が行われたニューラル・ネットワークのモデルを自己符号化器(オートエンコーダ)といいます。
2012年のILSVRC(画像認識精度を競う大会)において、トロント大学が開発したディープラーニング使用が使用されたSuperVisionが圧倒的に勝利しました。
2016年11月にGoogleが発表したニューラル機械翻訳サービスではニューラルネットワークが利用されています。

近年ではコンピュータの性能向上などにより、機械が勝手に学習していく強化学習があり、強化化学習にディープラーニングを組み込んだ深層強化学習があります。
実世界でロボットを制御時に離散化された状態・行動データを用いて強化学習を行うとデータ量が増大(指数関数的に増加)して学習が困難になるという次元の呪い問題が発生します。
その一つとして、高次元空間で超球面上に分布してしまう球面集中現象があります。
これらの次元の呪いの問題を対処するために高次元のデータを低次元データに変換して次元削減したり、特徴量を最適化する特徴選択を行います。

人工知能分野の問題

人工知能の分野では様々な問題が発生してきました。
その内容を記載していきます。

第一次ブームの問題では、推論と探索の技術を使用していましたが、簡単な問題は解けても複雑な問題は解くことがないおもちゃの問題(トイ・プロブレム)の影響でブームは終息しました。
同時期にダニエル・デネットはがロボットで例えたフレーム問題があり、ジョン・マッカーシーとパトリック・ヘイズが「現在しようとしていることをデータから選択する」ことは難しいと判断しています。
このフレーム問題は現在でも本質的な解決には至っていないです。

コンピュータの知性を図る手段として、チューリングテストがあり、人とコンピュータが会話して人が相手をコンピュータと見抜けなければコンピュータは知能があると認めるもので、知能がある会話ソフトウェアを目指すためにローブナーコンテストが1991年から開催されました。
知能の実験としてチューリングテストがあり、人間を模範する能力を測ることはできないとして中国語の部屋と呼ばれる思考実験もおこなわれています。

ジョン・サールは「強いAI」と「弱いAI」という考えを示して、強いAIは汎用型AIで本物の心を持つ人工知能はコンピューターで実現できると考え、弱いAIは特化型AIで心は持てないが、問題解決ができる便利な道具であればいいと考えました。

スティーブン・ハルナッドは、記号とそれが意味しているものを結びつけることは難しいシンボルグラウンディング問題を提唱しており、その問題を解決するには身体性が必要と考えました。

機械翻訳は研究が長く続いており、1970年代後半にはルールベース機械翻訳が一般的で1990年代から統計学的機械翻訳が主流になってきています。
文の意味を正確に汲んで翻訳を行うには、一般常識の情報が不可欠であり、コンピューターがその知識を得うるのがボトルネックになったことを知識獲得のボトルネックといいます。

ディープラーニンでは特徴表現学習を行う機械学習のアルゴリズムで、特徴量を自動で抽出しますが、自動で抽出した特徴量の意味を人が理解するのは難しいです。

レイ・カーツワイルは2029年には人工知能が人間よりも賢くなり、シンギュラリティが2045年に到来すると予想しています。

現在、機械翻訳や画像の説明文生成では大幅な向上が見られていますが、構文解析や意味解析のような連続的な精度向上はみられるものの基本的な手法は大きく変わっていません。
文脈解析や常識推論など現在のアプローチでは実用的な制度が見込めていません。