正しくAIを作り、活用するために必要な「AI倫理」について、エンジニアが知っておくべき事項を解説する本連載。第4回は、AI倫理に関する世界の主要なAI法規制やガイドラインと、AI開発者に求められることについて。
正しくAIを作り、活用するために必要な「AI倫理」について、エンジニアが知っておくべき事項を解説する本連載。第3回は、AIモデル学習の評価時、オペレーション時のバイアスリスクへの対処法について。
正しくAIを作り、活用するために必要な「AI倫理」について、エンジニアが知っておくべき事項を解説する本連載。第2回は、データ収集の際に起きてしまうバイアスの発生を防ぐために、AI構築に携わる技術者がとるべき対応について。
正しくAIを作り、活用するために必要な「AI倫理」について、エンジニアが知っておくべき事項を解説する連載。初回は、AIの普及により浮き彫りになった課題と、AI開発プロセスに内在するリスクについて。
AI倫理に関してエンジニアは何を知っておくべきなのか、エンジニアには何が求められるのか、AI倫理に詳しい弁護士の古川直裕氏に話を聞いた。前編である今回は、AI倫理とは何か、エンジニアにAI倫理はどのように関わってくるかについて。
AI利活用が広まる一方、法律や倫理の観点から問題提起されるケースが見受けられるようになった。企業のAIビジネス動向に詳しい弁護士の三部裕幸氏が語る、欧米の法律、AI倫理の動向と日本の現況とは。
東京工業大学は、無料のオンライン講座「Science, Engineering, AI & Data Ethics | 科学技術・AI倫理」を公開した。2017年公開の「Science and Engineering Ethics 科学技術倫理」の改訂版で、工学や科学、AI分野で起こる倫理的問題を解決する方法を学べる。
2022年3月末の最新状況に合わせて改訂。はじめてのAIから、機械学習、深層学習、自然言語処理、統計学、社会人のためのデータサイエンス(実用知識)、大学生のためのデータサイエンス(理論知識)まで、全28個の講義内容を紹介。本稿独自に考察した、学習者対象やお勧めの学習方法についても示す。
用語「データ中心のAI」について説明。性能を向上させるために、モデルやアルゴリズムを改善する「モデル中心」のアプローチではなく、機械学習ライフサイクル全体を通じてデータを改善する「データ中心」のアプローチの方が大切だとする、AIの開発方法に関する考え方を指す。
2021年は、Transformerを中心に技術が発展し、日本語モデルの利用環境も整ってきた。また、ローコード/ノーコードをうたうAIサービスも登場した。2022年の「AI/機械学習」界わいはどう変わっていくのか? 幾つかの情報源を参考に、8個の予測を行う。
AI insideは、DX推進のためのAI活用やAIの内製化、AI人材の育成状況に関する調査結果を発表した。AIソリューションを導入している企業のうち自社開発に取り組んでいる割合は37.2%。人材不足が課題として挙がった。
企業におけるAIを守り、AIが信頼の置けるものとして認識されるようにするために、新しいリスク軽減策を実施する必要がある。
用語「トロッコ問題」について説明。「多くの人を助けるためなら、1人を犠牲にしてもよいのか」という倫理的ジレンマを問う思考実験を指す。この問題に正解はない。自動運転で注目されている。
AIから仮想通貨、オンラインショッピングまで、技術はわれわれの生活やビジネスの在り方、そして人間とその能力に対する捉え方を変えつつある。CIO(最高情報責任者)やITリーダーは、この変化する世界への自社の対応をサポートする必要がある。
用語「公平性(Fairness)」について説明。機械学習モデルが不当な差別(人種差別/民族差別や、性別差別、文化差別/地域差別など)を引き起こさないように、不公平なバイアスを排除することを指す。