人工知能(AI)の開発と商業化は、グーグルのような会社にとって倫理面での潜在的なリスクとなることが明らかになっている。同社のアルゴリズムは、人種およびジェンダーに関するバイアスを永続化し、自律兵器を作ろうとする動きに拍車をかけていると非難されているのだ。
グーグルは、哲学者やエンジニア、それに公共政策の専門家からなる新たなチームを立ち上げることで、AIのはらむモラル・ハザードに関するメディアの反発や従業員からの抗議、それに訴訟問題を避けたい考えだ。
グーグルの国際業務担当上級副社長で最高法務責任者(CLO)を兼務するケント・ウォーカーは、MITテクノロジーレビューが主催するAIカンファレンス「EmTechデジタル」に登壇し、AIの実施について評価する独立機関の設立を発表した。
ウォーカーCLOによると、新しい独立機関の名称は「先端テクノロジー外部諮問委員会(ATEAC:Advanced Technology External Advisory Council)」。グーグルのプロジェクトや計画が同社のAI原則に合致しているかどうかを精査し、報告書として同社に提言。その実施の是非を判断する一助にする。A …