
国際連合がAppleに対し、「iPhoneに監視機能を組み込む」計画を放棄するよう要求
- Lamiyi
- 0
- rhahw
90以上の民間社会団体からなる国際連合が、アップルに対し「iPhone、iPad、その他のアップル製品に監視機能を組み込む」計画を放棄するよう求める公開書簡を発表した。
2021年8月5日、Appleはメッセージと写真アプリにデバイス上でスキャンを行う監視ソフトウェアを導入すると発表しました。連合の書簡で説明されているように、これらの新機能は子どもを保護し、児童性的虐待コンテンツ(CSAM)の拡散を抑制することを目的としていますが、子どもたちにとって新たなリスクを生み出し、言論の検閲に利用され、世界中の人々のプライバシーとセキュリティを脅かす可能性があります。
同連合は次のように指摘している。
● メッセージのスキャンとアラート機能により、一部の若者の安全と幸福を脅かすアラートが生成される可能性があり、特に同情心のない親を持つ LGBTQ+ の若者が危険にさらされます。
● 写真の CSAM ハッシュ スキャンが Apple 製品に組み込まれると、同社は世界各国の政府から、政府が不適切と考えるあらゆる種類の画像をスキャンするよう求める大きな圧力、場合によっては法的要求に直面することになります。
手紙の全文は次のとおりです。
-----
2021年8月19日
ティム・クック
、Apple 社 CEO
クック様
世界中の公民権、人権、デジタル権利の擁護に取り組む下記の署名団体は、Appleに対し、2021年8月5日に発表されたiPhone、iPad、その他のApple製品への監視機能の搭載計画を撤回するよう強く求める書簡を送付しました。これらの機能は、子どもの保護と児童性的虐待コンテンツ(CSAM)の拡散抑制を目的としていますが、保護された言論の検閲に利用され、世界中の人々のプライバシーとセキュリティが脅かされ、多くの子どもたちに悲惨な結果をもたらすことを懸念しています。
Appleは、テキストメッセージサービス「メッセージ」内の画像をスキャンし、ファミリーアカウントで子供と識別されたユーザーとの間で送受信される性的に露骨なコンテンツを検出する機械学習アルゴリズムを導入すると発表しました。この監視機能はAppleデバイスに組み込まれます。このアルゴリズムは性的に露骨な画像を検出すると、ユーザーにその画像がセンシティブな内容である可能性があることを警告します。また、13歳未満のユーザーが画像の送受信を選択した場合は、ファミリーアカウントの管理者に通知が送信されます。
性的に露骨なコンテンツを検出するために設計されたアルゴリズムは、信頼性の低さで有名です。芸術作品、健康情報、教育リソース、擁護メッセージ、その他の画像を誤ってフラグ付けする傾向があります。このような情報を送受信する子どもの権利は、国連児童権利条約で保護されています。さらに、Appleが開発したシステムは、関連する「親」アカウントと「子」アカウントが実際には子どもの親である成人に属しており、両者が健全な関係にあることを前提としています。しかし、必ずしもそうとは限りません。アカウントの管理者が虐待的な成人である場合もあり、親への通知によって子どもの安全と幸福が脅かされる可能性があります。特に、思いやりのない親を持つファミリーアカウントを利用しているLGBTQ+の若者は、リスクにさらされています。今回の変更により、iMessageは、送信者と受信者のみが送信情報にアクセスできるエンドツーエンドの暗号化メッセージシステムを通じて、これらのユーザーに機密性とプライバシーを提供しなくなります。このバックドア機能が組み込まれると、政府はAppleに通知を他のアカウントにも拡張し、性的に露骨である以外の理由で不快な画像を検出するよう強制できる可能性がある。
Appleはまた、米国の全米行方不明・被搾取児童センター(NCMICC)をはじめとする児童保護団体が提供するCSAM画像のハッシュデータベースを、自社製品のOSに組み込むことも発表した。ユーザーがiCloudにアップロードするすべての写真を、このデータベースと照合する。一致数があらかじめ設定された閾値に達すると、アカウントが無効化され、ユーザーと該当の画像を当局に通報する。多くのユーザーは、日常的に撮影した写真をiCloudにアップロードしている。こうしたユーザーにとって、画像監視はオプトアウトできるものではなく、iPhoneなどのAppleデバイス、そしてiCloudアカウントに組み込まれることになる。
この機能がApple製品に組み込まれれば、Appleとその競合他社は、世界中の政府から、CSAMだけでなく、政府が好ましくないと考えるその他の画像についても写真をスキャンするよう、多大な圧力(場合によっては法的義務)に直面することになるだろう。これらの画像は、人権侵害、政治的抗議活動、企業が「テロリスト」や暴力的過激主義コンテンツとしてタグ付けした画像、あるいはAppleにスキャンを強制する政治家自身の好ましくない画像などである可能性もある。そして、その圧力はiCloudにアップロードされた画像だけでなく、デバイスに保存されているすべての画像に及ぶ可能性がある。こうして、Appleは世界規模での検閲、監視、迫害の基盤を築くことになるだろう。
私たちは、児童保護の取り組みを支持し、CSAMの蔓延に断固として反対します。しかし、Appleが発表した変更は、現在そして将来において、児童をはじめとするユーザーを危険にさらすものです。Appleに対し、これらの変更を撤回し、エンドツーエンドの暗号化によってユーザーを保護するという同社のコミットメントを再確認するよう強く求めます。また、Appleに対し、市民社会団体や、製品・サービスの変更によって不均衡な影響を受ける可能性のある脆弱なコミュニティと、より定期的に協議を行うことを強く求めます。
-----
署名者リストは下記リンクからご覧いただけます。この公開書簡は、電子フロンティア財団が昨日開始した嘆願書に続くものです。最新情報については、iClarifiedアプリをダウンロードするか、Twitter、Facebook、YouTube、RSSでiClarifiedをフォローしてください。
続きを読む

Related Posts

Typinator 4.2 は互換性を向上
You may also like
