人工知能の研究者には「病的な疑り深さ」が求められている──英米の有識者26人による提言の真意

skull-9953ede01df435a798230ab8d944df89e8b042f8

人工知能(AI)技術のマイナス面に焦点を当てた報告書が公開された。英米から26人の有識者が参加したこの報告書には、AIを利用した高度な詐欺や殺人の可能性といった悪用例の長いリストが掲載されている。その対抗策として挙がったのは、AI研究における「偏執的なまでの疑り深さ」と「秘密主義」だった。いったいどういう意味なのか。

TEXT BY TOM SIMONITE
TRANSLATION BY ASUKA KAWANABE

WIRED (US)

skull

IMAGE BY BEN BOURS

2012年に機械学習の分野にブレイクスルーが起こり、現在に至るまで狂ったような人工知能(AI)への投資が続いている。生活はずっと便利になった。音声認識はだいたいの場合うまく機能するし、最新のiPhoneは顔をつかってロックを解除できる。そして、これらをつくるスキルをもつ人々は、テック業界で最も重宝される人材となった。

しかし、AIが発展することによるマイナス面を調査した新しい報告書は、彼らにAIが負うべき倫理的な重責にもっと目を向けるよう警告している。99ページにわたる報告書には、不快でときに身の毛もよだつような、AIが悪用された場合のシナリオがリストになって並んでいる。

例えば、政治家を暗殺するよう目的を変えられたお掃除ロボットや、AIによって高度にパーソナライズされた自動フィッシング詐欺といった具合だ。報告書は、AIの悪用に関する早急かつ活発な議論を求めている。

そんな悪用のシナリオの予防策として提案されていることがある。それはAIの研究者が、もっと病的なまでに疑り深くなり、あまりオープンでいないようにすることだ。

報告書は、AIの研究に取り組んでいる人や企業は、自分たちのテクノロジーへの攻撃者や犯罪者に対するセーフガードを設けるべきだとしている。さらには、特定のアイデアやツールの公開も控える必要があるのだという。

悪人の強力な武器となりうるAI

この報告書の著者は26人にのぼる。著者はオックスフォード大学やケンブリッジ大学、イーロン・マスクが資金提供しているOpenAI、デジタル権利団体の電子フロンティア財団(EFF)、コンピューターセキュリティ企業のEndgame、シンクタンクの新アメリカ安全保障センターなどに所属している有識者たちだ。

ここ1年で、倫理は機械学習の分野における重要なテーマになった。議論の引き金となった出来事の事例としては、政府が国民に影響を与える決断を下すためにアルゴリズムを利用していることや、機械学習が偏見を身につけていることなどが挙げられる。

最近マイクロソフトやIBMは、写真に写った人間のジェンダーを判断する自社の顔分析サーヴィスを訓練しなおす必要に迫られた[日本語版記事]。分析対象が暗い色の肌をもつ人物だった場合、ほかと比べて判別の精度が大きく下がることがわかったからだ。

今回の報告書は、AIソフトウェアが能力向上や普及によって起こるより直観的な害について懸念している。例えば、自律走行車や会社のタスクを自動で完了させるソフトウェアは簡単に変更され、犯罪や人殺しにまで使われる可能性がある。

自律走行車が犯罪者に悪用されたとすれば、爆発や意図的な自動車事故などに使われるかもしれない。米国防総省がスポンサーについている、ほかのソフトウェアをハックするソフトウェアの開発などは、犯罪者が有能で適用能力の高いマルウェアを手に入れるのに一役買ってしまう恐れがある。

対抗策は「疑り深さ」と「秘密主義」

それでは、いったいどうすればいいか。報告書の提言は、AI技術を開発している企業や人が、もっと活発かつオープンに議論を交わすことだ。そこには、政策立案者との議論も含まれる。

さらに報告書は、AIの研究者たちはもっと偏執的なまでの疑り深さ(パラノイド)のマインドセットをもつよう求めている。つまり、その技術を公開する前に、悪人がどうやって利用する可能性があるかを熟考するように、ということだ。

AI分野の激しい人材獲得レースの結果、アマゾンやマイクロソフト、グーグルといった秘密主義の企業ですら研究結果を公に発表し、自社ツールをオープンソースで公開するようになった。しかし、今回の提案が受け入れられれば、AI分野特有のオープンさは抑制されることになるだろう。

ケンブリッジ大学の生存リスク研究センターの研究者、シャハー・アヴィンは報告書の筆頭著者だ。彼いわく、この分野に漂う無垢な空気は、AIに過度な期待が寄せられていたものの実用には至っていなかった、過去数十年の遺産なのだという。「AI分野の人間は大言壮語を繰り返していました。しかし今回は違います。もう目をそらすこともできないのです」

公開すべきか否かの線引きが難しいことは、報告書も認めている。しかし同報告書は、コンピューターセキュリティやバイオテクノロジー、防衛といった分野のコミュニティーは、危険なアイデアやツールの秘匿に関する規範の設定・強化を責任をもって行っているとも主張した。

AIコミュニティは、すでにいくつかのケースで限界ラインまで到達していると、アヴィンは主張する。彼が例として挙げたのは、本物にかなり近い合成音声を生成するグーグルの研究だ。

16年の米大統領選挙でロシアの工作員が偽装工作を企んだことを考えると、フェイクニュースに恩恵をもたらす可能性のあるこういった研究は、それに対抗するツールの議論とともに行われるべきだとアヴィンは言う。例えば、人工的に合成された音声や動画には、判別のために透かしを入れるなどの対応だ。この件についてグーグルにコメントを求めたが、回答は得られていない。

すでにRedditなどのインターネット企業は、機械学習システムを使ってセレブの顔にすり替えられたポルノ、いわゆるディープフェイク動画と戦っている[日本語版記事]。

機械学習を工学分野に近づける

AIの研究に取り組んでいる人のなかには、研究者たち、そして未来のAI専門家たちの目を覚まそうと努力している人もいる。

カリフォルニア大学バークレー校のアイオン・ストイカは、コンピューターセキュリティ分野の同僚たちとともに公共政策について考えている。彼は今回の報告書にはかかわっていないが、最近行われたAIの技術課題に関する調査の筆頭著者である。この調査からは、セキュリティと安全性がAI研究の主なトピックであり懸念点であることが明らかになっている。

すでにカリフォルニア大学バークレー校は、AIや機械学習のコースに集まる学部生や大学院生に対して、このメッセージを発信しているとストイカは言う。彼は、当初は新しい発見が中心だった分野も、いずれその技術のベストプラクティスを見つけられるだろうと楽観的だ。新しいビジネスや消費者向けのデジタル製品、橋や航空機といったものをつくった人々もそうだったように。

「われわれは、機械学習をもっと工学分野に近づけたいのです」と、ストイカは言う。「いまはまだ理想とのギャップがありますが、それも徐々に埋まってきているように思います」

  • このエントリーをはてなブックマークに追加

関連記事

話題をチェック

  1. 600x601x20170822nana.jpg.pagespeed.ic.u5ed1iTQeL-e5b3de5c391c8e3805df72a8cdb3da051ece71fa

    ANA、機内食総選挙2017の結果発表 和食は牛すきやき丼、洋食はビーフシチューとオムライス

    Sponsored link  機上ӗ…
  2. MIT-Instant-Retouch-TA-12db540ca97a6020f2db78ca5b27647ac89d2f28

    機械学習を用いれば、写真が「撮影する前」からプロ仕様の美しさに──グーグルとMITがアルゴリズムを開発

    NEWS 2017.08.22 TUE 08:00マサチ&…
  3. GettyImages-496380034-e1503241697905-b18cea347ee2933a806af5a4adfa2f3d9569add1

    「世界共通のインターネット」を巡る、グーグルとカナダ最高裁との闘い

    NEWS 2017.08.21 MON 07:00カナダ&…
ページ上部へ戻る