2021年8月5日、Appleは「Child Sexual Abuse Material(CSAM:児童の性的搾取に関連するデータ)」の拡散を防止するための取り組みとして、アメリカのApple端末ユーザーのメッセージや写真をスキャンし、CSAM関連コンテンツが存在しないかをチェックすると発表しました。
米Appleは8月8日(現地時間)、5日に発表した児童の性的虐待対策に関するFAQを公開した。この対策は米国でiOSおよびiPadOSのバージョン15の更新で実施される見込みだが、多方面からプライバシーを懸念する声が上がっている。 発表された対策は ...
Apple has quietly removed from its website all references to its child sexual abuse scanning feature, months after announcing that the new technology would be baked into iOS 15 and macOS Monterey.
Appleが2021年8月5日(木)に発表したCSAM(児童性的虐待資料)拡散防止のための試みが、ユーザーのセキュリティやプライバシーを損なうものであると反発を招いています。Appleは改めて「メッセージの中身を見るわけではない」「iCloud写真に保存された写真がCSAMと ...
特定非営利活動法人チャイルド・ファンド・ジャパン(東京都杉並区、事務局長:武田勝彦)は、子どもへのオンライン性搾取をなくす取り組みの一環として、オンラインイベント『生成AIによる児童性的虐待コンテンツ”CSAM”の課題と現状 ~ アメリカ ...
New service makes high-precision CSAM identification and classification capability available to platforms and services through the world's leading trust & safety intelligence provider. LEEDS, United ...
In May 2025, the Internet Watch Foundation's Annual Data & Insights Report identified a record breaking number of CSAM reports, alongside a stark increase in AI-generated child sexual abuse material ...
New service makes high-precision CSAM identification and classification capability available to platforms and services through the world's leading trust & safety intelligence provider. LEEDS, United ...
The MarketWatch News Department was not involved in the creation of this content. New service makes high-precision CSAM identification and classification capability available to platforms and services ...