
AppleのCSAM写真スキャナがリバースエンジニアリングされ、iOS 14.3にアルゴリズムが存在
- Lamiyi
- 0
- rhahw
Apple がユーザーの写真をスキャンして児童ポルノを検出するために使用するアルゴリズムが発見され、リバースエンジニアリングされた。
Asuhariet Ygvar氏は本日、Redditでこの成果を発表しました。注目すべきは、このアルゴリズムが既にiPhoneに搭載されている点です。
ご存知の通り、Appleはデバイス上でのCSAM検出にNeuralHashアルゴリズムを近々実装する予定です。信じられないかもしれませんが、このアルゴリズムはiOS 14.3の時点で既に存在しており、難読化されたクラス名で隠されています。この隠されたAPIを徹底的に調査し、リバースエンジニアリングした結果、そのモデル(MobileNetV3)をONNXにエクスポートし、NeuralHashアルゴリズム全体をPythonで再構築することができました。これでLinuxでもNeuralHashを試すことができます!
NeuralHash のソースコードはここから入手できます:
https://github.com/AsuharietYgvar/AppleNeuralHash2ONNX
テストの結果、このアルゴリズムは画像のサイズ変更と圧縮は処理できるが、切り取りや回転は処理できないことが分かりました。
ユーザーの写真やメッセージをスキャンできるシステムには根本的なプライバシーの懸念があるが、研究者はすでに衝突を発見したようだ。
ユーザー、セキュリティ研究者、プライバシー擁護団体、そして政府関係者は、Appleの計画に声高に反対している。これに対し、Appleは数多くの技術的評価結果を共有し、ユーザー向けのFAQを作成し、デバイス上での写真スキャンはiCloudでの写真スキャンよりもプライバシー保護に有利であると主張している。
最新情報については、iClarified アプリをダウンロードするか、Twitter、Facebook、YouTube、RSSで iClarified をフォローしてください。

Related Posts
You may also like
![Samsungセールイベント:5日目[お買い得]](https://image.lamiyi.com/adampgdm/14/e4/431538-640.webp)
Samsungセールイベント:5日目[お買い得]

アップル、iPad発売前に貨物輸入記録を隠蔽

LogMeIn Ignition アップデート
