Apple、児童ポルノの疑いでユーザーの写真をスキャン開始へ [報道]

Apple、児童ポルノの疑いでユーザーの写真をスキャン開始へ [報道]

  • Lamiyi
  • 0
  • rhahw
Apple、児童ポルノの疑いでユーザーの写真をスキャン開始へ [報道]

ジョンズ・ホプキンス大学の暗号学教授マシュー・グリーン氏によると、アップルは明日、ユーザーの写真をスキャンして児童性的虐待の素材を検出するツールをリリースする予定だという。

Appleが明日、CSAMスキャン用のクライアント側ツールをリリースするという情報を複数の関係者から個別に確認しました。これは本当にまずいアイデアです。このツールを使うと、AppleはiPhoneの写真をスキャンして特定の知覚ハッシュに一致する写真を探し出し、あまりにも多くの写真が見つかった場合はAppleのサーバーに報告できるようになります。当初は、クラウドに保存された写真のクライアント側スキャンに利用されると理解しています。最終的には、暗号化メッセージングシステムに監視機能を追加するための重要な要素となる可能性があります。

Appleがそのようなツールをリリースした場合、プライバシーへの影響は甚大となるだろう。グリーン氏は、このツールは携帯電話内の児童ポルノを見つけるのに利用できる一方で、独裁政権によって悪用される可能性もあると指摘している。

Appleは独自のニューラルハッシュアルゴリズムを使用しているとされています。たとえシステムが「悪用」されなかったとしても、無害なファイルが児童ポルノファイルとハッシュを共有し、ユーザーが児童ポルノを保存していると誤って判断される可能性があります。

グリーン氏は、Apple はすでに iCloud で共有されている非 E2E 写真から始めるため、「誰のプライバシーも『傷つけない』」と述べている。

しかし、E2E写真のスキャンが目的でなかったら、なぜこのようなシステムを開発するのか疑問に思う。

同氏はまた、アップルがそのようなシステムを提供すれば「事態は一変し」、すべての政府がそれをすべての人に要求するようになると示唆している。

詳細は下記のリンク先のスレッドをご覧ください。

最新情報については、iClarified アプリをダウンロードするか、TwitterFacebookYouTubeRSSで iClarified をフォローしてください。

続きを読む [9to5Mac経由]

Apple、児童ポルノの疑いでユーザーの写真をスキャン開始へ [報道]