カテゴリー別アーカイブ: 人工知能

日本人を含む有色人種は自動運転車に轢かれる確率が高い、AIアルゴリズムの精度が白人に偏っている

自動運転車が歩行者を認識する精度は肌の色により異なり、白色人種より有色人種の検知精度が低いことが判明した。これはGeorgia Institute of Technologyの研究チームが明らかにしたもので、自動運転車は有色人種の歩行者を検知しにくいという特性がある。イメージ判定のアルゴリズムがバイアスしているためで、自動運転車の場合は生命にかかわる問題として注意を喚起している。🔒

出典: Benjamin Wilson et al.  

AIが完璧なエッセイを生成、フェイクニュースに悪用されると核兵器より危険な武器となる

OpenAIは人間のように文章を生成するAIを開発した。生成された記事はごく自然で人間のものと区別はつかない。この技法が悪用されるとAIが人間に代わりフェイクニュースを作成する。読者の感情を煽る主張がネットで拡散すると国が分断される。OpenAIはこの危険性を十分認識しており、開発したAIのソースコードは公開していない。🔒

出典: OpenAI

NvidiaのGANは完璧なフェイクイメージを生成、顔のパーツをマッシュアップして思いのままに人物を創り出す

Nvidiaはフェイクイメージを生成する技術Generative Adversarial Network (GAN)の最新版を公開した。GANは顔写真を学習し、そのスタイルを把握して、人の顔を生成する(下の写真)。画像は実在の人物ではなく、AIが人の顔というコンセプトを理解して想像で描いたもの。もはやリアルとフェイクの見分けはつかず、インターネット上には存在しない人物の顔写真が蔓延することになる。フェイクニュースの次はフェイクイメージが社会問題になりそうだ。🔒

出典: Tero Karras et al.

IBMは人間と議論できるAIを開発、人間がディベートでAIに負ける時代が到来

議論して負けるのは心地よいものではないが、今度はAIに負ける時代が到来した。IBMは議論できるAI「Debater」を開発し、討論会で人間のチャンピオンと対戦した。Debaterは勝てなかったが、高度な言語理解能力を示し、会社の会議でAIが議論をリードする時代がやって来たことを感じさせた。🔒

出典: IBM

Googleが開発したAIは東京大学に合格できる!?AIが文章を理解して質問に回答する

Googleは質問に回答できるAIを開発した。これは「BERT」と呼ばれ、与えられた文章を理解して、その内容を質問されると、正確に回答する。正解率は人間を上回り、ついに言語モデルでもAIが人間を超えた。日本の「東ロボくん」は受験を断念したが、Google BERTは東京大学に入学できる実力を持つ。🔒

出典: Jacob Devlin et al.