GoogleはColabのディープフェイクを生成するAI–TBENを禁止します

Googleは、GoogleColaboratoryプラットフォームでディープフェイクを生成するために使用できるAIシステムのトレーニングを禁止しました。 BleepingComputerによって週末に発見された更新された利用規約には、許可されていないプロジェクトのリストにディープフェイクに関連する作品が含まれています。

Colaboratory、または略してColabは、2017年後半に社内のGoogle Researchプロジェクトから生まれました。これは、誰でもWebブラウザを介して任意のPythonコード、特に機械学習、教育、データ分析用のコードを記述して実行できるように設計されています。 この目的のために、Googleは、カスタム設計されたAI加速GPUやテンソルプロセッシングユニット(TPU)などのハードウェアへの無料および有料アクセスをColabユーザーに提供します。

近年、ColabはAI研究コミュニティ内でのデモンストレーションの事実上のプラットフォームになりました。 コードを記述した研究者が、コードをホストしているGitHubリポジトリまたはその隣にColabページへのリンクを含めることは珍しくありません。 しかし、Googleは、Colabのコンテンツに関して常に非常に制限的であるとは限らず、あまり慎重でない目的でサービスを使用したいプレーヤーに門戸を開く可能性があります。

オープンソースのDeepFaceLabディープフェイクジェネレーターのユーザーは、先週、ColabでDeepFaceLabを実行しようとした後にエラーメッセージを受け取ったときに、利用規約の変更に気づきました。 警告は次のとおりです。「許可されていないコードを実行している可能性があります。これにより、将来Colabを使用できなくなる可能性があります。 FAQで指定されている禁止されているアクションに注意してください。

すべてのコードが警告をトリガーするわけではありません。 このレポーターは、最も人気のあるColabディープフェイクプロジェクトの1つを問題なく実行できました。また、Redditユーザーは、別の主力プロジェクトであるFaceSwapが完全に機能していると報告しています。 これは、アプリケーションがキーワードベースではなくブラックリストベースであり、新しいルールに違反するコードを報告するのはColabコミュニティの責任であることを示唆しています。

「GoogleのAI原則に反するColabの不正使用経路を定期的に監視しながら、ユーザーがTPUやGPUなどの貴重なリソースにアクセスできるようにするという私たちの使命に対するサポートのバランスを取ります。 ディープフェイクは、虐待的なパターンの定期的なレビューに応えて、先月Colabランタイムの禁止されたアクティビティリストに追加されました」とGoogleの広報担当者はメールでTBENに語りました。 悪用は進化し続けるゲームであり、カウンターパーティが知識を活用して検出システムを回避する可能性があるため、特定の方法を開示することはできません。 一般に、さまざまな種類の不正使用を検出して禁止する自動システムがあります。 »»

Archive.orgのデータは、Googleが5月中旬にColabの条件を静かに更新したことを示しています。 サービス拒否攻撃、パスワードクラッキング、トレントのダウンロードなどの以前の制限は変更されていません。

ディープフェイクにはさまざまな形式がありますが、最も一般的なものの1つは、人の顔が別の顔に納得のいくように貼り付けられたビデオです。 Photoshopで作成された生のディープフェイクとは異なり、AIで生成されたディープフェイクは、ハリウッドで作成されたCGIよりも、人の体の動き、マイクロエクスプレッション、肌のトーンによく一致する場合があります。

数え切れないほどのバイラルビデオが示しているように、ディープフェイクは無害で、面白くさえあります。 しかし、それらは、恐喝や詐欺のスキームでソーシャルメディアユーザーを標的にするためにハッカーによってますます使用されています。 さらに悪質なことに、それらは政治宣伝で悪用されました。たとえば、ウクライナのウォロディミルゼレンスキー大統領が、実際には配信したことのないウクライナの戦争について演説するビデオを作成するためです。

情報筋によると、2019年から2021年にかけて、オンラインディープフェイクの数は約14,000から145,000に増加しました。 Forrester Researchは、2019年10月に、ディープ詐欺は2020年末までに2億5000万ドルの費用がかかると見積もっています。

「特にディープフェイクに関して言えば、より関連性の高い問題は倫理的な問題です。デュアルユースです」とドイツのザールラント大学の計算言語学者であるVagrantGautamはTBENに電子メールで語った。 「それは銃や塩素について考えるのと少し似ています。 塩素は物を掃除するのに便利ですが、化学兵器としても使われています。 そのため、まず技術の深刻さを考え、次に、たとえば、化学兵器を相互に使用しないというジュネーブ議定書に同意することで、これに対処します。 残念ながら、機械学習とAIに関して業界全体で一貫した倫理的慣行はありませんが、アクセスとディープフェイクを作成する機能を規制する独自の一連の規則をGoogleが考案することは理にかなっています。誤った情報を伝え、偽のニュースを広める–これは悪い成長している問題です。

シアトル大学の副教授であるOsKeyesも、Colabのディープフェイクプロジェクトを禁止するというGoogleの決定を支持しました。 しかし彼は、彼らの創造と拡散を防ぐために、もっと政治的に行われる必要があると述べた。

「これが行われた方法は確かに企業の自主規制に依存することの貧困を浮き彫りにしている」とキーズは電子メールでTBENに語った。 「ディープフェイクの生成は、どこでも受け入れられる形式の作業であってはなりません。そのため、Googleがこれに加担しないのは良いことです…しかし、禁止は真空中では発生していません。実際の環境で発生します。これらのタイプの開発プラットフォーム(および企業)に対する責任ある応答性の高い規制が欠けています。

他の人々、特にColabの古い自由放任主義のガバナンスアプローチの恩恵を受けた人々は、反対するかもしれません。 数年前、AI研究所のOpenAIは、誤用されることを恐れて、言語生成モデルであるGPT-2を開くことを最初は拒否しました。 これにより、EleutherAIのようなグループは、Colabのようなツールを利用して、表面上は研究のために独自の言語生成モデルを開発および公開するようになりました。

昨年、EleutherAIのメンバーであるConnor Leahyと話をしたとき、彼は、AIモデルのコモディティ化は、コードがリリースされたかどうか。 彼によると、AIモデルとツールは、「リソースの少ない」ユーザー、特に学者がより良い研究にアクセスし、安全に焦点を当てた独自の研究を実施できるように、広く普及させる必要があります。

「ディープフェイクは、GoogleのAI原則に反する大きな可能性を秘めています。 私たちは、悪意のあるディープフェイクのパターンと良性のパターンを検出して阻止できることを目指しており、ポリシーを変更していきます。 そして私たちの方法が進歩するにつれて」とスポークスマンは続けた。 「合成メディアプロジェクトを良性の方法で探索することに関心のあるユーザーは、Google Cloudの担当者と話し合って、ユースケースを確認し、GoogleCloudの他のマネージドコンピューティング製品の適合性を検討することをお勧めします。」

Leave a Comment

%d bloggers like this: