錦です。
Appleは、iOS 15、iPadOS 15、macOS Monterey向けに、新しい子供向けの安全機能を搭載することを明らかにしました。
機能の内容
メッセージApp
機能の内容としては、「メッセージ」Appを用いて、性的に露骨な写真を子供が送受信したとき、子供自身とiCloudファミリーで紐付けられている親に警告が送信されます。性的な写真かどうかを判断するのはデバイス上の機械学習によるものです。
「メッセージ」Appで送受信された静的なコンテンツは、ぼかしが入った状態で表示され、子供に警告が表示されます。そして、オプションとして、その写真を閲覧したとき、あるいは、それを別の連絡先に送信するなどした場合に、親(保護者)が通知を受け取ることができます。
Appleは、iMessageのチャットはエンドツーエンドで暗号化されたままで、Appleが内容を読み取れないと強調しています。
性的虐待資料の写真のスキャン
そして、iOS 15とiPadOS 15で、AppleはiCloud Photoに保存されている基地の児童性的虐待資料(CSAM)画像を検出できるようになり、Appleはこれらの事例を当局・米国の法執行機関と協力して活動するNPOに通報できるようになります。
このスキャン方法ですが、NCMEC(全米行方不明・被搾取児童センター)やその他の児童安全組織が提供する既知のCSAM画像ハッシュのデータベースに対してシステムがデバイス上で照合を実行するとのことで、Appleは、このデータベースを、ユーザーのデバイスに安全に保存される読み取り不可能なハッシュのセットにさらに変換すると述べました。Appleは、このハッシュ技術をNeural Hashと名付けています。
なお、この機能は、写真のみに適用されて動画には適用されないとしました。
サードパーティに向けての開放
以上の2つの機能は、サードパーティにも提供されることも明らかにされています。これはすなわち、今後、InstagramやMessengerのようなiMessageやSMS以外のサービス、Google Drive、Dropboxのようなサービスでも同様の機能が使えるようになる可能性があることを意味しています。
ただし、いつ提供するかは明らかにされていません。
Siri
これに加えて、SiriとSpotlight検索でガイダンスを強化し、危険な状況を助けを得るのに役立つ追加のリソースを提供します。この変更は、iOS 15・iPadOS 15、watchOS 8、macOS Montereyで追加されます。
まずは米国から
これらの機能は、まず米国から開始されます。今後の展開はわかりませんが、少なくとも、法律等の関係から、日本に来るのはしばらく時間がかかりそう・・・かな?
ちなみに、iOS 15からはiOS 15にアップデートするか、iOS 14のままアップデートを受け取るかを選択できるようになっています。