特集 : 国別レポートが13,000件から検索可能になりました!

特集 : 海外市場の委託調査がセミカスタムベースでお手軽にできます

株式会社グローバルインフォメーション
表紙
市場調査レポート
商品コード
963725

AIにおけるトラッキングミス:エラーを回避するための警戒の活用

Tracking Mistakes in AI: Using Vigilance to Avoid Errors

出版日: | 発行: Mercator Advisory Group, Inc. | ページ情報: 英文 15 Pages, 3 Exhibits | 納期: 即日から翌営業日

価格
価格表記: USDを日本円(税抜)に換算
本日の銀行送金レート: 1USD=105.15円
AIにおけるトラッキングミス:エラーを回避するための警戒の活用
出版日: 2020年10月08日
発行: Mercator Advisory Group, Inc.
ページ情報: 英文 15 Pages, 3 Exhibits
納期: 即日から翌営業日
  • 全表示
  • 概要
  • 目次
概要

AIソリューションは、知らず知らずのうちに道を踏み外してしまうことがあると言われています。社会的に大きなマイナスの結果をもたらす可能性のある課題にAIを適用することは避けるべきであると考えられており、その一例として、ソーシャルネットワークのFacebookやYou Tubeなどの事業計画をAIを使って実施することが挙げられます。

当レポートは、世界のAIにおけるトラッキングミスについて調査しており、データがバイアスを証明する様々な方法、ソリューション、予防法などの情報を提供しています。

当レポートに含まれる図表の一部:

ハイライト

  • 用語集
  • データがバイアスを証明する様々な方法
  • ソリューション
  • 予防法
  • ショートカットの魅力と危険性
目次

AI and machine learning can help FIs avoid risk - but they have risk of their own.

Mercator Advisory Group releases a new research report that examines the impact of hidden biases in ML and Artificial Intelligence-and how to avoid them.

AI models reflect existing biases if these biases are not explicitly eliminated by the data scientists developing the systems. Constant monitoring of the entire operation is required to detect these shifts. The remedy for such lack of focus is training.

Mercator Advisory Group's latest research Report, ‘Tracking Mistakes in AI: Use Vigilance to Avoid Errors’, discusses modes in which data models can deliver biased results, and the ways and means by which financial institutions (FIs) can correct for these biases.

"AI solutions can unwittingly go astray," comments Tim Sloane, the Report's author and director of Mercator Advisory Group's Emerging Technology Advisory Service and its VP Payments Innovation. "Applying AI to issues that can have large negative social consequences should be avoided. One example of this is using AI to implement the business plan of social networks Facebook, You Tube, and others, as presented in the documentary "The Social Dilemma." The documentary contends that social networks have optimized AI to drive advertising revenue at the expense of the individual and society. To drive revenue, social networks build psychographic models for each user to predict exactly which content will best engage that user."

This document contains 15 pages and 3 exhibits.

Companies mentioned in this research note include: The Federal Reserve, ProPublica, The Verge.

One of the exhibits included in this report:

Highlights of the research note include:

  • A glossary of terms
  • The various modes in which data can evidence biases
  • Solutions
  • Prophylactic methods
  • The appeal-and danger-of shortcuts
株式会社グローバルインフォメーション
© Copyright 1996-2020, Global Information, Inc. All rights reserved.