
多くの米国の大企業が、AI 監視システムを使用して、Slack、Teams、Zoom などの人気のビジネス アプリでの従業員のコミュニケーションを分析しています。
CNBC の報道によると、ある AI モデルは、従業員が投稿したテキストと画像の両方の内容と感情を分析できると主張している。
これらのツールの一部は、比較的無害な方法で使用されている。例えば、新しい企業方針などに対する従業員の反応を総合的に評価するなどである。
「プライバシー保護のため、個人名は公表しません」とAwareのCEO、ジェフ・シューマン氏は述べた。むしろ、顧客は「おそらく、米国のこの地域の40歳以上の労働者は、コストの面から政策変更を非常に否定的に捉えているだろうが、その年齢層や地域以外の人々は、自分たちには異なる形で影響があるため、肯定的に捉えている」と認識するだろうと彼は述べた。
しかし、同じ会社が提供するツールを含む他のツールでは、特定の個人の投稿にフラグを付けることができます。
Aware の数十の AI モデルは、テキストの読み取りと画像の処理を目的として構築されており、いじめ、嫌がらせ、差別、不遵守、ポルノ、ヌードなどの行為も識別できます。
シェブロン、デルタ、スターバックス、Tモバイル、ウォルマートなどは、これらのシステムを使用していると言われる企業のほんの一部です。Awareは、300万人以上の従業員間で200億件以上のやり取りを分析したと述べています。
これらのサービスは長年使用されてきたAIベースではない監視ツールを基盤としているが、オーウェルの領域に入り込んでいるのではないかと懸念する人もいる。
AIの説明責任を追求する非営利団体ヒューメイン・インテリジェンスの共同創設者、ユッタ・ウィリアムズ氏は、いわゆるインサイダーリスクプログラムにAIが新たな、そして潜在的に問題のある要素を加えると述べた。インサイダーリスクプログラムは、特に電子メールのコミュニケーションにおける企業スパイ行為などを評価するために長年存在してきたものだ。
ウィリアムズ氏はCNBCに対し、Awareの技術ではなく、従業員監視AI全般について語り、「これは思想犯罪に繋がる」と述べた。さらに、「これは私が見たことのない方法で、人々を在庫品のように扱っている」と付け加えた。[…]
ニューヨーク大学AIナウ研究所のエグゼクティブディレクター、アンバ・カク氏は、危険な行動を判断するためにAIを使用することを懸念している。
「職場での発言に萎縮効果をもたらす」とカク氏は述べ、連邦取引委員会、司法省、雇用機会均等委員会がいずれもこの件について懸念を表明していると付け加えた。ただし、カク氏はAwareの技術について具体的に言及したわけではない。「これはプライバシーの問題であると同時に、労働者の権利の問題でもある」
さらに懸念されるのは、「従業員の年齢、所在地、部署、在職期間、職務など」の詳細なレベルで報告された場合、集計データであっても簡単に匿名性が解除される可能性があることだ。
Unsplash の Andres Siimon による写真
youfre.com を Google ニュース フィードに追加します。
FTC: 収益を生み出す自動アフィリエイトリンクを使用しています。詳細はこちら。