Twitterでは手が加えられたり捏造された写真や動画などに対しラベル付けや警告などのフェイク対策を実施します。AIや機械学習を使用して画像・動画加工などを行う「ディープフェイク」についてはラベル付けを行い、Twitter上で表示されにくくします。
米現地時間2月4日、Twitterは「合成または操作されたメディアに関するポリシー」を発表し、手が加えられたり捏造された写真や動画などのフェイク対策を開始します。
新ルールでは、Twitterで共有されるコンテンツが大幅に改ざんされていたり捏造されていたりする場合は該当するツイートにラベル付けをしたり、利用者がリツイートや「いいね」を押す前に警告を表示したりします。
またこれらのコンテンツがTwitter上で表示されないようにしたり「おすすめ」に上がらないようにしたりする対策も行うとしています。
Twitterは2019年11月に人々を誤解させる、あるいは元々の意味を変えることを意図して、大幅に改変またはねつ造された、写真、音声、動画などの「ディープフェイク」への対策案を発表し、ユーザーからの意見を募っていました。
Twitterではそれらの意見を反映して、2020年3月から新ルールにおいて捏造動画・写真への対策を強化する方針です。
Twitterでは、ラベル付けや削除の対象となるツイートやメディア(動画、音声、画像)を判断する基準として、以下の3点を挙げています。
利用者を欺くことを意図して、大幅に改ざんまたは捏造されているか |
利用者を欺くことを意図して共有されているか |
公共の安全に影響を及ぼしたり、深刻な損害をもたらす可能性が高いか |
また合成、操作されたコンテンツの判断としては以下の判断基準を挙げています。
構成や流れ、タイミングを根本的に変える大きな編集 |
視覚情報や音声情報の追加や削除 (新たな動画フレームの追加・音声吹き替え・字幕変更や改ざん) |
実在の人物に関するコンテンツが捏造、模造されている |
上記の判断基準に該当する場合、「操作されたメディア」として誤解を招くコンテンツであるとラベル付けし、リツイートや「いいね」の前に警告が表示されます。
またツイートを表示しにくく「おすすめ」に入らないようにする対策が取られます。さらにコンテンツが公共の安全を脅かし、重大な危害をもたらす可能性がある場合は、削除されます。
具体的には、個人やグループの身体的安全に対する脅威、集団暴力や暴動のリスク、個人やグループのプライバシー、自由な表現や市民集会参加に対する脅威(ストーカー行為など)が削除対象となります。
Twitterの調査では、70%以上が改ざんされ誤解を招くコンテンツに対し「何の手段も講じない」ことは容認できないと回答しています。警告ラベル付けにも9割が「容認できる」と回答していますが、コンテンツを非表示にすることに対しては消極的だそうです。
アメリカでは55%がそれらのコンテンツの削除を求める一方で、表現の自由などついての意見も多く反対意見もあるようです。ただ危害を加える可能性がある場合は「削除すべきである」を支持する人が90%となりました。
Twitterはラベル付けなどの新ルールについて「これは私たちにとっても挑戦です。実施する上で間違いが起こる可能性もありますが、根気よくお付き合いいただけると幸いです」とコメントしています。