AIの開発と実装に倫理的および社会的アプローチを実際に統合するという課題は、テクノロジーに対する国民の信頼を回復するために緊急に取り組む必要があります。(ネイチャーの社説)
nature machine intelligenceeditorialsarticle
Published: 14 September 2020
Algorithms to live by
Nature Machine Intelligence volume 2, page487(2020)
2020年は、社会におけるいくつかの長年の構造的および複雑な問題と、それらに迅速な技術的およびアルゴリズム的解決策で対処しようとすることによって引き起こされた損害を露呈した年として振り返ることができます。複雑な社会問題に対処するための誤ったアプローチの代表的な例は、過去の学校の成績に基づいた公式を実装することにより、個々の生徒のAレベルの試験予測の結果を標準化しようとする英国政府の試みです。当然の結果として、不利な立場にある学生は、格下げされた試験マークの影響を最も受け、個人の生活に影響を与える予測に使用されるアルゴリズムが、定着した分裂を永続させ、増幅する傾向があることを改めて強調しました。
新しいコロナウイルスによって引き起こされたパンデミックは、高等教育または就職市場への移行の準備をしていた中学生に大きな課題を提示しました。彼らはすぐにデジタルテクノロジーとオンラインのみの学習に取り掛かる必要がありました。しかし、ほとんどの人は試験を受けることができませんでした。これは、大学の入学時に試験の成績が非常に重要である英国のような国にとって問題となりました。代わりに、教師の予測成績を使用する必要がありましたが、政府の試験規制当局であるOfqualは、成績が毎年インフレの影響を受けないことを保証し、結果の40%をダウングレードするアルゴリズムを使用することを決定しました。このプロセスは、条件付きで提供された大学の場所を逃そうとしているように見えた多くの学生の間で絶望を引き起こしました。
試験結果を標準化するという目標自体は悪い考えではありませんでしたが、過去の学校の成績のデータに基づいて、単純なアルゴリズムで個人を公正に予測できるという期待は誤っていました。使用するデータの選択(および最初に利用できるデータ)から、対処する特定の質問(および誰が)まで、すべてが調査されなかった社会的バイアスの影響を受けます。政府はすぐにアルゴリズムに目を向ける代わりに、不平等に内在する問題に対処するために、試験システムを見直してオーバーホールするという、長い間延期されていたタスクを引き受けることができたはずです。
社会の深い構造的問題に対処するために必要な作業を延期し、技術的およびアルゴリズム的な修正でそれらを修正しようとすることによって、社会はシャノン・ヴァラーが道徳的負債と呼ぶものを生み出します。この用語は、ソフトウェアアプリケーションの技術的負債の概念に関連しており、パッチやショートカットを使用して不完全なソフトウェアを迅速に市場に投入します。その結果、展開後何年もの間、修復と最終的な交換に追加のリソースを費やす必要があります。ソフトウェア。同様に、2020年までの数十年間で、技術的およびデジタルの変革により、かなりの環境的および社会的コストが蓄積されてきました。2020年は、社会がヘルスケアへの過少投資、環境的に持続不可能な慣行、人種、性別、その他の社会的不公正などの問題に対処するための作業を延期することができなくなったため、考慮すべき年になる可能性があります。
問題の不適切な修正によって、または民主的プロセス、監視における顔認識を損なう恐れのあるソーシャルメディアプラットフォームの台頭などの新しい問題を生み出すことによって、AIテクノロジーが道徳的負債に追加されようとしているリスクがあります。これは人権を侵害し、ディープフェイクによる偽情報の蔓延です。前進する唯一の方法は、社会問題に貢献したり洗い流したりせず、理想的にはそれらに対処するのに役立つAIの開発に集中することで、報われる道徳的負債があることを認識することです。
今年のイベントは、長年の社会問題に立ち向かうことを求めています。AIテクノロジーには果たすべき役割がありますが、迅速なアルゴリズムの修正はありません。新しいテクノロジーは、テクノロジーに対する国民の信頼を回復するために、明確な倫理的プロセスと動機と影響の透明性がなければ展開できません。これは、COVID-19ワクチン接種プログラムのように広く受け入れられることが重要な場合に不可欠です。