Apple の CSAM システムはだまされたが、同社には 2 つの保護手段がある

更新: Apple はサーバーの 2 回目の検査について言及しており、プロのコンピューター ビジョン会社は、以下の「2 回目の検査がどのように機能するか」で説明できる可能性について概説しています。
開発者がその一部をリバース エンジニアリングした後、Apple CSAM システムの初期バージョンは効果的にだまされて、無実の画像であるとマークされました。ただし、Appleは、これが実際に発生するのを防ぐための追加の保護手段があると述べています.
最新の開発は、NeuralHash アルゴリズムがオープン ソース開発者の Web サイト GitHub に公開された後に行われました。誰でも実験できます…
すべての CSAM システムは、National Center for Missing and Exploited Children (NCMEC) などの組織から既知の児童性的虐待資料のデータベースをインポートすることによって機能します。データベースは、画像のハッシュまたはデジタル フィンガープリントの形式で提供されます。
ほとんどのテクノロジ大手はクラウドにアップロードされた写真をスキャンしますが、Apple は顧客の iPhone で NeuralHash アルゴリズムを使用して、保存されている写真のハッシュ値を生成し、それをダウンロードした CSAM ハッシュ値のコピーと比較します。
昨日、ある開発者が Apple のアルゴリズムをリバース エンジニアリングし、そのコードを GitHub に公開したと主張しましたが、この主張は事実上 Apple によって確認されました。
GitHib がリリースされてから数時間以内に、研究者はアルゴリズムを使用して意図的な偽陽性を作成することに成功しました。つまり、同じハッシュ値を生成する 2 つのまったく異なるイメージです。これを衝突と呼びます。
このようなシステムでは、ハッシュはもちろん画像を大幅に単純化した表現であるため、常に衝突のリスクがありますが、誰かが画像を非常に迅速に生成できることは驚くべきことです。
ここでの意図的な衝突は、概念実証にすぎません。開発者は CSAM ハッシュ データベースにアクセスできないため、リアルタイム システムで誤検知を作成する必要がありますが、原則として衝突攻撃が比較的簡単であることは証明されています。
Apple は、アルゴリズムが独自のシステムの基礎であることを効果的に確認しましたが、これが最終バージョンではないことをマザーボードに伝えました。同社はまた、機密を保持するつもりはないと述べた.
Apple は Motherboard に電子メールで、ユーザーが GitHub で分析したバージョンは一般的なバージョンであり、iCloud Photo CSAM 検出に使用される最終バージョンではないと述べました。Apple は、アルゴリズムも開示したと述べた。
「NeuralHash アルゴリズム [...] は、署名されたオペレーティング システム コードの一部であり、セキュリティ研究者は、その動作が説明に準拠していることを確認できます」と Apple の文書に記載されています。
同社は、さらに 2 つのステップがあると述べています。独自のサーバーで 2 次 (秘密の) マッチング システムを実行し、手動で確認することです。
Apple はまた、ユーザーが 30 マッチのしきい値を超えると、Apple のサーバーで実行されている 2 番目の非公開アルゴリズムが結果をチェックすると述べています。
「この独立したハッシュは、非 CSAM イメージの敵対的干渉により、誤った NeuralHash がデバイス上の暗号化された CSAM データベースと一致し、一致するしきい値を超える可能性を拒否するために選択されました。」
Roboflow の Brad Dwyer は、衝突攻撃の概念実証として投稿された 2 つの画像を簡単に区別する方法を見つけました。
これらの画像が似ているが異なる神経特徴抽出ツール OpenAI の CLIP でどのように見えるか興味があります。CLIP は NeuralHash と同様に機能します。画像を取得し、ニューラル ネットワークを使用して、画像の内容に対応する一連の特徴ベクトルを生成します。
しかし、OpenAI のネットワークは違います。画像とテキストの間をマッピングできる一般的なモデルです。これは、人間が理解できる画像情報を抽出するために使用できることを意味します。
上記の 2 つの衝突イメージを CLIP で実行して、それもだまされていないかどうかを確認しました。短い答えは次のとおりです。いいえ。これは、Apple が、検出された CSAM 画像に 2 番目の特徴抽出ネットワーク (CLIP など) を適用して、それらが本物か偽物かを判断できることを意味します。2 つのネットワークを同時に欺く画像を生成することは、はるかに困難です。
最後に、前述のように、イメージが手動でレビューされ、CSAM であることを確認します。
セキュリティ研究者は、唯一の本当のリスクは、Apple を困らせようとする人が人間のレビュアーに誤検知を提供する可能性があることだと述べています。
「Apple は実際にこのシステムを設計したので、ハッシュ関数を秘密にしておく必要はありません。なぜなら、『CSAM としての非 CSAM』でできる唯一のことは、Apple の応答チームがフィルターを実装して排除するまで、いくつかのジャンク画像で困らせることだからです。分析パイプラインにあるこれらのガベージは誤検知です」とカリフォルニア大学バークレー校の国際コンピューター科学研究所の上級研究員であるニコラス・ウィーバーはオンラインチャットでマザーボードに語った。
プライバシーは、今日の世界で関心が高まっている問題です。ガイドラインにあるプライバシー、セキュリティなどに関するすべての報告に従ってください。
Ben Lovejoy は英国のテクニカル ライターであり、9to5Mac の EU 編集者です。彼はコラムや日記の記事で知られており、時間をかけて Apple 製品の経験を探り、より包括的なレビューを得ています。彼は小説も書いており、テクニカル スリラーが 2 本、SF 短編映画が 2 本、ロマンティック コメディーが 1 本あります。


投稿時間: 2021 年 8 月 20 日