【AI】仏学者が警鐘鳴らす「AIと巨大IT企業の情報操作」 2ch.net
元スレ
http://egg.2ch.net/test/read.cgi/bizplus/1498799689/ 人工知能が急速に進歩し、社会に浸透する中、AI(人工知能)が人間を超えるとした「シンギュラリティ仮説」を唱え、人工知能への脅威を煽る声も目立ってきた。
だが、仏ピエール・マリキュリー大学情報学教授で哲学者のジャン=ガブリエル・ガナシアさんは、近著「そろそろ、人工知能の真実を話そう」(早川書房)で、
シンギュラリティ仮説には科学的根拠はなく、むしろこれを喧伝するGAFA(Google、Apple、Facebook、Amazon)といった巨大IT企業の戦略に目を向けるべきだと説く。
フランスではGAFAが個人情報を集めて情報操作をしているといった懸念や、特定の情報にしかアクセスしなくなることで情報の殻に閉じこもったような状態「フィルターバブル」が問題になっているという。ガナシア氏が本誌に語ったその真実とは?
中略
――AIの活用は社会経済の発展に寄与する。リスクや恐怖を抑えて、ポジティブに進めるには、どうしたらよいか。
AIの活用で私たちの生活はより便利になるが、リスクはある。AIによって私たちはより脆弱になっている。技術に依存すると逆に人間は弱くなるからだ。
例えばペースメーカーを付けている人は、ペースメーカーが壊れるリスク、乗っ取られるリスクを常に抱えている。こういうことがあらゆるところで起こっているのが現状だ。
リスクを避けるには、短期的な利益ばかりではなく、長期的に見る必要がある。また、「個人情報の保護」「安心安全の問題」「透明性の確保」に配慮して技術の社会実装を進めることが、AIの有益な活用につながる。
ただし、この3つはお互いに対立するので、どこかで妥協が必要になる。これを私は「倫理のトリレンマ」と呼んでいる。
――その倫理とは?
具体的には、技術の設計段階から考慮する必要がある。セキュリテイの確保、個人情報の保護のために、どのようにシステムを設計し、運用し、動作を保証するのかということだ。
例えば、個人情報保護では、あるサービスのためにスマホなどの端末で個人情報を収集するが、企業の中央サーバーへ送らずに、利用者の端末などその場でデータ処理をするという方法もある。
私が関わっている研究開発で「インテリジェントTV」がある。視聴者が見た番組情報を元に、番組をリコメンドしてくれる。
このときに、視聴者の番組情報を中央サーバーに送ると、企業は視聴者それぞれに合ったターゲット広告を送ることができる。
一方、中央サーバーに送らずに視聴者のテレビの中でデータ処理をしてリコメンドをすれば、企業は視聴者のデータをもとに広告を出せない。ただこのとき、企業が広告収入を得られないと、視聴者がテレビを見るのにお金を払わないといけなくなるかもしれない。
「個人情報の保護」「安心安全の問題」「透明性の確保」に配慮しながら製品開発を進める専門職が産業界にできてもいいくらい重要なものだ。
――AI技術の開発について、日本は総務省が「開発ガイドライン」の作成を進めている。国による規制や規準作りをどう見るか。
国が技術開発を規制するのは難しい。特に欧米では、技術の規制や規準は競争を阻害すると見る。
むしろもっとオープンな開発にするべきだ。規制ではなく、良いものに対して認証をする方が良い。消費者が安心して買えるような認証制度を作るのがよいと考えている。