ソーシャルメディア大手ツイッターは、非営利団体Thornが開発した技術をテストし、プラットフォーム上での児童性的虐待コンテンツ(CSAM)の拡散を防止する新システムが「シームレスに導入された」と発表した。
ツイッターのセーフティアカウントは火曜日、児童の性的搾取を含むテキストベースの素材を積極的に検出、削除、報告する、同団体のAIを搭載したSaferソリューションのベータテストに参加したと発表した。
@thornとの継続的なパートナーシップを通じて、私たちは安全なプラットフォームを構築するためにさらなる努力を続けています。Xは、テキストベースの児童の性的搾取を未然に検知するThornのソリューションのベータ段階のテストに参加しました。この取り組みは、児童の性的…
-セーフティ (@Safety) 2024年5月7日
..
-セーフティ (@Safety) 2024年5月7日
..
“ソーンとの継続的なパートナーシップを通じて、私たちは安全なプラットフォームを作るためにさらなる努力をしています。「この取り組みは、オンライン上の児童の性的搾取と闘うための私たちの絶え間ない努力に基づくものであり、児童が差し迫った危険にさらされているような有害性の高いコンテンツと闘うための私たちの能力を拡大することを具体的な目標としています。
“このセルフホスト・ソリューションは、我々の検出メカニズムにシームレスに導入され、リスクの高いアカウントに焦点を絞ることを可能にしています “と続けた。
俳優のデミ・ムーアとアシュトン・カッチャーが2012年に立ち上げたThornは、性的虐待や搾取から子どもたちを守ることに焦点を当てたツールやリソースを開発している。4月、グーグル、メタ、OpenAIは、ソーンと仲間の非営利団体All Tech is Humanが発表した誓約書に署名し、自社のAIモデルにガードレールを敷くことを誓った。
「ソーンのデータサイエンス担当副社長レベッカ・ポートノフはTCNにこう語った。「児童性的虐待は、テキストを含むあらゆる種類のコンテンツに現れるということは分かっていましたが、今回のベータテストでは、テキスト向けの機械学習/AIが、現実の規模にどのような影響を与えるかを具体的に見ることができました」。
ポートノフが説明したように、Safer AIモデルは、児童の安全に関連するテキストで訓練された言語モデルと、テキストシーケンスのマルチラベル予測を生成する分類システムで構成されている。予測スコアは0から1の範囲で、様々な子どもの安全カテゴリーとテキストの関連性に対するモデルの信頼度を示す。
ポートノフ氏は、Safer製品群のベータテストに参加している他のソーシャルメディア・プラットフォームを明らかにすることはできなかったが、他の企業からの反応は肯定的であると述べた。
「一部のパートナーは、このモデルが有害な児童性的虐待行為を特定し、報告されたメッセージに優先順位を付け、既知の悪質業者の調査をサポートするために特に有用であることを共有している」とポートノフ氏は述べた。
2022年にChatGPTが開始されて以来、生成AIツールが普及しているため、英国を拠点とするInternet Watch Foundationのようなインターネット監視団体は、ダークウェブのフォーラムでAIが生成した児童ポルノが氾濫していることに警鐘を鳴らしており、違法な素材がインターネットを圧倒する可能性があると述べている。
Twitter Safetyチームの発表は、欧州連合(EU)が同社に対し、”コンテンツモデレーションリソースが減少している “という報告について説明するよう要求する数時間前に行われた。
TwitterがEU規制当局に提出した最新の透明性報告書によると、イーロン・マスクのコスト削減策により、2023年10月以降、プラットフォームのコンテンツモデレーションチームの規模が20%近く縮小され、監視する言語数が11から7に削減されたという。
「委員会はまた、生成的AIツールが選挙プロセス、違法コンテンツの拡散、基本的権利の保護に与える影響に関連するリスク評価と緩和策について、さらなる詳細を求めている」と要求書は付け加えている。
EUは2023年12月、ツイッター社がリスク管理、コンテンツモデレーション、「ダークパターン」、研究者のデータアクセスなど複数の分野でデジタルサービス法に違反しているとの懸念から、ツイッター社に対する正式な手続きを開始した。
同委員会は、ツイッター社は5月17日までに要求された情報を提供し、5月27日までに追加の質問に回答しなければならないとしている。