ドイツ議会、CSAM探知システムへの懸念を表明する書簡をティム・クックCEOに送付c

Appleが児童保護のための新しいCSAMスキャン機能を発表して以来、ユーザーのプライバシーに関する多くの懸念と論争が巻き起こっています。現在、ドイツ議会のデジタルアジェンダ委員会委員長は、ティム・クックCEO宛ての書簡で、Appleに対しCSAM計画の再検討を求めています。

Heise Onlineの報道によると、デジタルアジェンダ委員会のマヌエル・ホフェリン委員長は、Apple が「安全で機密性の高いコミュニケーション」を損ないながら「危険な道」を進んでいると考えている。

CSAMスキャンは発売当初は米国でのみ利用可能となるが、ホファーリン氏はこれが「史上最大の監視機器」となり、Appleがこの戦略を継続するならば大規模市場へのアクセスを失う可能性があると述べている。

一方、Appleは、CSAMスキャンによってiPhoneに保存されているすべてのユーザーの写真を分析するわけではないと説明しようとしました。さらに同社は先週、このシステムを第三者による監査が可能になると発表しました。

Appleは、暗号化されたCSAMハッシュデータベースのルートハッシュを含むナレッジベース記事を公開すると説明しました。また、ユーザーが自身のデバイスでルートハッシュデータベースを確認し、ナレッジベース記事のデータベースと比較できるようにする予定です。

サイトのデフォルトロゴ画像

それ以外にも、AppleはCSAM検出機能について明確な説明を続けています。先週公開された詳細なよくある質問(FAQ)に加え、AppleはCSAM検出はiCloudフォトに保存されている写真にのみ適用され、動画には適用されないことも確認しました。

Appleはまた、ユーザーがiCloudフォトを利用していない場合、CSAM検出プロセスは実行されないことを強調しました。つまり、ユーザーがCSAM検出プロセスをオプトアウトしたい場合は、iCloudフォトを無効にすることができます。

Appleは、自社のデバイス上でのCSAM検出機能は、他社が採用しているサーバー側の実装よりもはるかに優れていると考えている。Appleの説明によると、他社のサーバー側の実装では、ユーザーがサーバーに保存したすべての写真をスキャンする必要があり、そのほとんどはCSAMではないという。

続きを読む

  • 意見:AppleのCSAMスキャン論争は完全に予測可能だった
  • Apple、子どもの安全を守るための新たな保護機能を発表:iMessage機能、iCloud写真スキャンなど
  • AppleはCSAM検出が写真にのみ適用されることを確認し、他のソリューションに対して自社の方法を擁護している
  • Apple CSAM FAQは写真スキャンに関する誤解や懸念事項を取り上げています
  • Appleのプライバシー担当幹部が新たなインタビューでCSAM検出システムの詳細を語る

youfre.com を Google ニュース フィードに追加します。 

FTC: 収益を生み出す自動アフィリエイトリンクを使用しています。詳細はこちら。