見出し画像

【第五章】ついに姿を現す人工知能。彼らは人間の味方か、それとも

※この記事は2018年10月22日に投稿されたものです

おはようございます、大阪に10年近く住んでいたたけCです。

2ヶ月ほど前のニュースになりますが、「世界のもっとも住みやすい世界ランキング」では大阪が3位に選ばれました(東京は7位)。

news.livedoor.com

正直こういった世界ランキングに大した意味はないことはよく知っているんですが、昨年まで約10年間を大阪で過ごしていた僕からすると「激動の10年」の結果の一つだなと感慨深いものがありました。

激動の10年っていうのは、つまり「橋下徹大阪府知事誕生」からの10年ですね。確か僕が大学4年生になる年(2008年)に府知事になったのかな。その後、2012年に市長となって住民投票を実施してから2015年に政界を引退。

と流れだけを書くとTwitterのつぶやき程度で収まるんですが、その間に大阪での暮らしってのは大きく変わりました。それも、かなりいい方向に。特に日本のスラムとも言われている西成に住んでいた頃の変化は激しく、「政治で生活が変わる」ということをリアルに体験できた時期でした。

この話についてはまたいつかのブログで詳しく話しますね。

【連載企画】連載企画: AIの歴史を紐解く!

では本題です。全六章にわたる連載も終盤で、今回と次回で終わりになります。
今日はついに「これぞまさしく人工知能!」と呼べる革命が登場します。

もし初めから読みたい!という方は以下からどうぞ。

【序章】今さらだけどAI(人工知能)が怖いから歴史を紐解いてみる

【第一章】人間は、心を作れるのか?コンピュータの生みの親たち

【第二章】方針転換!人間を賢くしてくれる機械を作ろう

【第三章】誕生、サイバー空間に漂う巨大な頭脳

【第四章】60億人が知識を共有する最後のワンピース

【第五章】ついに姿を現す人工知能。彼らは人間の味方か、それとも ←今ココ

少しこれまでの復習をしておきましょうか。

もしも、人間のように考える機械があれば・・・

すでに私たちの生活には欠かせなくなったコンピューター。実はこれが人工知能の正体です。

どういうことか?
コンピューターの成り立ちを知ると納得できます。コンピューターが戦争をきっかけに発明されたことはよく知られていることですね。そんなコンピューターには3人の生みの親がいます。

デジタル理論の発明家、クロード・シャノン。
暗号解読の鬼才、アラン・チューリング。
機械より計算の早い人間、ジョン・フォン・ノイマン。

彼ら三人が目指した理想のコンピューターは共通していました。それは人間と同じように考える機械であること。そうまさしく人工知能を実現するためにコンピューターは誕生したのです。

より小さく、より安く、そして賢く

実はコンピューターが誕生して約70年の間に、すでに何度かAIブームは起こっています。今が3回目のAIブーム。

なぜ以前の2回のAIブームはブーム(一過性のもの)で終わってしまったのでしょうか?なぜなら、コンピューターの計算処理能力が低かったからです。

人工知能が人工知能として動くためには大量の計算が必要になります。しかし、当時のコンピューターでは例えば爆弾の軌道計算を1解するだけで1ヶ月弱の時間がかかってしまうほどに能力が低かったのです。

そうした処理能力の限界を突破し続けてきたのがコンピューターの中心部であるCPUの進化です。ムーアの法則にあるとおり、CPUは小さくなればなるほど、材料費を安く生産できつつも高速化を実現できました。

そうして、壁一面を覆い尽くすほど大型だったコンピューターは、机におけるほどの大きさのパーソナルコンピュータとなり、ついにはポケットにおさまるスマートフォンへと進化と遂げました。

60億人の知識がひとつの場所に集約される

ウィンドウズ95の発売を皮切りに、世界中の国々で一気に広まったのがインターネット。そしてインターネット上に構築されたウェブという人類の頭脳です。

今やパソコンやスマホだけでなく、テレビも冷蔵庫も掃除機も、あらゆるものがインターネットにつながっている現在。私たちは水が飲みたければ蛇口をひねるのと同じように、情報が知りたければウェブで検索するという行動が身についてしまいました。

もうすでに私たちはインターネットがない時代には戻れないでしょう。

全人類が使うことになったインターネットは、人工知能実現を阻むもうひとつの課題をクリアしました。それは大量のデータです。人々がふだんの生活を、仕事を過ごすだけでウェブ上には把握するのができないほどの大量のデータ(ビッグデータ)がたまっていきます。

このビッグデータをもとに大量の計算処理を進めることができるようになった現在、人工知能をこれまでにないほど大きく進化させた革命が起きました。それが今日のテーマです。

革命児の名は「ディープラーニング」

現在、もっとも人工知能の研究・実用化を進めている企業はGoogleで間違いないでしょう。

Googleの主要事業である検索エンジンでは言語解析にディープラーニングはフル活用されていることはもちろん、流行りのスマートスピーカーでも自然言語処理の性能が飛躍的に向上した裏にはディープラーニングの研究があります。

その他、AppleのSiriやAmazonのAlexa、IBMのワトソンのようにまるで人格をもっているかのような人工知能たちはもれなくみなディープラーニングのおかげで進化したと言って過言ではありません。

それでは一体、ディープラーニングとは何なのでしょうか?解説していきましょう。

人工知能 > 機械学習 > ディープラーニング

まずは言葉の整理をしておきます。

画像1


大まかな構造はこの図の通り知ってもらえればいいのですが、あえてもう少しつっこんだ解説をしておきましょう。

人工知能(AI)とは、「大量のデータをもとに人間のような考え方をする機械」のことです。すでにお話したとおり、これはもともとコンピューターの理想像でした。

機械学習とは、大量のデータを使って「機械が自発的に学習できる仕組み」のことです。人工知能を活かすには大量のデータを扱わないといけないんですが、この大量のデータをすべて人間が明確に指示して教えることは現実的ではありません。

機械自身が与えられたデータの特徴やパターンを認識して区別できるようにする仕組みが必要なのです。しかし今までは機械学習がなかなか発展してきませんでした。そこでディープラーニングの登場です。

ディープラーニングとは、「ニューラルネットワークを用いて大量のデータを学習する方法」です。

はい、そうですね。いきなりニューラルネットワークなんて言われたって頭にはてなが増えるだけですよね。とりあえずは人工知能・機械学習・ディープラーニングの言葉の違いを理解いただければここではOKです。次いきますよ、次!


脳神経の仕組みを機械で再現

ニューラルネットワークを一言で言い表わせば、脳神経の仕組みを機械で再現しているものです。

うん、分かりづらいですねすみません。それではちょっとニューラルネットワークの開発と進化の歴史をたどってみましょう。

生き物のように振る舞うために・・・

時代は大きくさかのぼり60年ほど前。コンピューターの生みの親の一人であるジョン・フォン・ノイマン、彼の研究仲間(と書いてライバルと読む)であるノーバート・ウィーナーという研究者がいました。

この2人は共通して、生き物のように振る舞う人工生命の研究(サイバネティクス)に取り組んでいました。その中で、生き物が何かしらの行動を起こすには神経というネットワークの解明が重要であることが分かってきたのです。

当時、すでに脳科学の分野においてはすでに神経細胞(ニューロン)が電気信号で情報を伝えていることは分かっていました。ニューロン同士が接続して、電気信号をまるでスイッチがON/OFFされるかのように切り替えることによて情報の入力と出力を繰り返す。こうして生き物は複雑で繊細な思考と行動が制御できています。

こうした神経細胞の仕組みをヒントにニューラルネットワークの代表的なアルゴリズムであるパーセプトロンが開発されました。

人間と魚の区別ぐらいならできる

パーセプトロンが開発されたのは1957年、フランク・ローゼンブラットによってでした。現在でも機械学習のアルゴリズムはパーセプトロンが基礎になっています。

一体どういったアルゴリズムかと言うと・・・というのを説明し始めると大学の講義2年分ぐらいかかってしまいそうですので割愛させてください。大幅にはしょっとはしょって本当に重要な点だけご説明します。

パーセプトロンは3つの層をもった計算処理の仕組みです。
3つの層とは、データが入力される層・データが出力される層・入力と出力を連結する中間の層です。はい難しいことは置いておいて、とにかく覚えていただきたいのは「中間層がある」という点です。ここ、ディープラーニングを知るためには外せないポイントです。

で、このパーセプトロンを使った機械学習はどれくらいの人間の脳に近づけたかと言うと感覚的には、写真を見た時に人間の顔と魚の顔どっちが写ってるかが判断できるくらい、の知能をもっていた感じです。

ですので例えば、写真を見た時に男性の顔か女性の顔かは判断できないレベルでした。3つの層だけのニューラルネットワークではまだまだ実用に堪えるものではなかったんですね。

手書きの小切手を処理する

しかしそれから時は経ち1990年代には、ジェフリー・ヒントンの手によってパーセプトロンの限界を超えるニューラルネットワークが誕生しました。それがディープラーニングです。

ディープラーニングとパーセプトロンの大きな違いは中間層の多さでした。
パーセプトロンでは3つの層、つまり入力と出力の間には1つの中間層しかないアルゴリズムでした。一方、ディープラーニングでは6つの層、つまり4つの層をもったアルゴリズムへと進化を遂げたのです。

中間層が1つから4つに増えただけ。
たったそれだけの違いですが画像認識の精度は大きく向上し、例えば小切手に書かれた手書きの文字・数字を判断してデジタル化できるまでになりました。(事実、アメリカの小切手の処理にディープラーニングは使われています。)

画像2

時代が弱点を克服した

約30年前にはニューラルネットワークは確立され、20年前にはディープラーニングが登場し一部で使われていました。

ではなぜこれまでディープラーニングは一般に広まらなかったのでしょうか?
実はディープラーニングは大きな、大きな弱点を2つ抱えていました。

ひとつめの弱点は、6層からなる処理には大量の計算が必要になり、そんな大量の計算を短い時間でこなせるほど高性能なコンピューターが普及してなかったから。

ふたつめの弱点は、機械学習に使う大量のデータを手に入れることが難しかったから。

しかし時代は進み、コンピューターはパソコンとなりスマホとなり毎年のように高性能になりました。インターネットが登場し、世界中のあらゆる人がインターネットを介して情報を通信・交換する生活が浸透してきました。

そんな時代になったからこそ、ディープラーニングにあった弱点が克服され、ついに人工知能が機械学習を進める革命的な方法が自由に活躍できるようになったのです。


ディープラーニングの威力は体験できる

私自身がディープラーニングの偉大さを思い知ったのは、2016年に人工知能が碁のプロに勝ったニュースでした。
www.newsweekjapan.jp

もしかすると、ここまでこの記事を読んでいながら未だにディープラーニングのすごさを信じていない人がいるかもしれません。それではここで手軽にディープラーニングのすごさを実感してもらいましょう。

あなたが持っているスマホ、そこにはすでにディープラーニングにより実現した未来の技術が詰まっています。

Googleフォトは、誰が写っているかを知っている

もしiPhoneの方はぜひGoogleフォトアプリをダウンロードして使ってみましょう。Androidの方はデフォルトでインストールされてるはずです。

iCAREでも社内イベントの写真をGoogleフォトを通して共有しているんですが、人物ごとに自動的に分類してくれるので自分が写っている写真を1クリックで検索できてしまいます。

人物以外にもどういった物が写っているかでも分類しており、「料理」や「山」や「自転車」といったくくりでもグルーピングを自動でしてくれます。

これらはディープラーニングによって画像認識(パターンを分析して区別する)が飛躍的に向上したためですね。

Google翻訳はリアルタイム翻訳

さらに近未来感体験をしたいなら、Googleカメラを使ったリアルタイム翻訳はどうでしょうか。

www.appbank.net

Googleカメラというアプリを通して、英語の書かれたものを覗くとリアルタイムで日本語に翻訳されるという機能です。

そもそもはOCRといって、画像から文字を認識する機能ではあるんですがこの翻訳機能がすごいのは、文字の大きさや形はアルファベットのままで日本語の文字に置き換えてしまっている点。言葉では説明しづらいですので、ぜひ上のリンクから確かめてみてください。

あるいは今すぐスマホで体験してみてください!

人工知能は、人間の脳を置き換えることはできるのか?

ディープラーニング。改めて説明すると、機械が自発的に学習を進めるための方法の一つであり、具体的には6つの層を通してデータを入力→中間→出力している方法です。

しかし、なぜ6層なのでしょうか?
実はディープラーニングが行っている機械学習の仕組みとは、人間の脳、もっと具体的に言えば大脳新皮質と呼ばれる部分の仕組みと同じになっています。

大脳新皮質とは脳の中では、「五感(視覚・聴覚・触覚・味覚・嗅覚)から得られた情報から意味を解釈する」という役割を持っています。その際に6つの層を通して情報処理をしていることが分かっているのです。

もちろん現在のディープラーニングが人間の大脳新皮質と同等の性能を有しているわけではありませんが、限りなく近しい能力を持っており、近い将来には人間の脳の性能を超えてしまうことでしょう。

人工知能が大脳新皮質を置き換えることができるというのであれば、脳の他の部分についても人工知能で作ることができるようになるのでしょうか?

頭だけでなく、体も機械に置き換わる

たとえば、記憶を司る海馬はすでにハードディスクやメモリディスクのほうがより多くより長くデータを扱えるようになりました。

たとえば、運動を司る小脳。下の動画を見てみてください。

www.youtube.com

これはGoogleが買収し、現在はソフトバンクグループが所有するBostonDynamics社が開発しているロボットです。正直言って、私はこのロボットのようなバク宙はできませんし、世の中でも多数の人が運動能力として負けているのではないでしょうか。

まだ人工知能の発展が進んでいない脳の分野でいえば、情動を司る扁桃体や意識を司る前頭野ぐらいですが、今の進化のスピードを見るに人工知能に感情や集中力が宿るのはそう遠くない未来ではないでしょうか。


そして20年後、私たちの生活はどうなるのか?

ついにこの連載も最後の1回となってしまいますね。

ディープラーニングによって人間の脳の機能の一部を手に入れた人工知能。彼らはここ10年で恐ろしいほどのスピードで進化を続けています。もうこの進化は止まることはないでしょう。

であるならば、20年後の決して遠くはない未来において私たちの生活はどのように変わるのでしょうか?さらに2045年に訪れると言われているシンギュラリティ(技術的特異点)ではどんなことが危惧されるのでしょうか?

これまで過去の歴史をもとに人工知能の正体を紐解いてきましたが、最終章では未来を予測していきたいと思います。

次回、『【最終章】20年後の近い未来。そして人類は何から解放されるのか』をお楽しみに1

【序章】今さらだけどAI(人工知能)が怖いから歴史を紐解いてみる
【第一章】人間は、心を作れるのか?コンピュータの生みの親たち
【第二章】方針転換!人間を賢くしてくれる機械を作ろう
【第三章】誕生、サイバー空間に漂う巨大な頭脳 
【第四章】60億人が知識を共有する最後のワンピース
【第五章】ついに姿を現す人工知能。彼らは人間の味方か、それとも ←今ココ
【最終章】20年後の近い未来。そして人類は何から解放されるのか

画像3


みんなにも読んでほしいですか?

オススメした記事はフォロワーのタイムラインに表示されます!

最後まで読んでいただきありがとうございます!公式TwitterでiCAREの最新情報を発信しています。是非覗いてみてくださいね!