
Apple、物議を醸すCSAMスキャンに関する記述をウェブサイトから削除
- Lamiyi
- 0
- rhahw
Apple は、以前に発表された CSAM スキャン機能に関するすべての参照を、自社の「子どもの安全」ウェブページからひっそりと削除した。
8月5日、Appleはユーザーの写真とメッセージに児童ポルノが含まれていないかスキャンを開始すると発表しました。プライバシーとセキュリティにおけるAppleのリーダーシップを信頼してきたユーザーにとって、この動きは衝撃的な方向転換と受け止められました。ユーザー、研究者、そして電子フロンティア財団などの組織から、即座に激しい怒りの声が上がりました。
以前にも申し上げましたが、改めて申し上げます。子供が送受信する性的に露骨な画像のみをスキャンするクライアントサイドのスキャンシステムを構築することは不可能です。結果として、たとえ善意でそのようなシステムを構築しようとしたとしても、メッセンジャーの暗号化自体の重要な約束が破られ、より広範な悪用への扉が開かれることになります。Appleが構築している狭いバックドアを広げるには、機械学習のパラメータを拡張して他の種類のコンテンツを探すか、設定フラグを微調整して子供だけでなく誰のアカウントもスキャンするようにすれば良いのです。これは危険な道ではなく、外部からの圧力によってわずかな変化がもたらされるのを待っている、既に構築済みのシステムなのです。
この結果、Apple は 9 月 3 日にその計画を一時停止しました。
以前、私たちは、コミュニケーションツールを利用して子供たちを勧誘し搾取しようとする捕食者から子供たちを守り、児童性的虐待コンテンツの拡散を抑制するための機能の計画を発表しました。お客様、支援団体、研究者などからのフィードバックに基づき、これらの極めて重要な子供の安全機能をリリースする前に、今後数か月かけて意見収集と改善にさらに時間をかけることを決定しました。
Apple.comの「子どもの安全」ウェブページからCSAMに関する記述が削除されました。これは、同社が計画を断念した可能性を示唆しています。正式な確認が得られ次第、お知らせいたします。
なお、Apple は今週 iOS 15.2 をリリースしており、これには、子供がヌードを含む写真を受信または送信するときに保護者が警告を有効にする機能を含む通信の安全性設定が含まれています。
最新情報については、iClarified アプリをダウンロードするか、Twitter、Facebook、YouTube、RSSで iClarified をフォローしてください。

Related Posts

飛行機恐怖症の人を助けるアプリ
You may also like
