Xのフィードに「有害コンテンツ」が増えたのはなぜ? イーロン・マスクの答えは(海外)
イーロン・マスク氏はXのアルゴリズムについて警告し、ユーザーが有害な投稿にアクションを起こすとさらに有害なコンテンツを目にする可能性があることを指摘した。
マスク氏は、有害なフィードを減らすためにはかわいい子犬の投稿をシェアするようユーザーに助言し、アルゴリズムがユーザーの好みを勘違いする可能性があることを語った。
また、Xのレコメンデーション・アルゴリズムについても言及し、2023年の大規模アップデートによりユーザーの嗜好に合ったコンテンツを浮上させる取り組みをしていることを明かした。
X(旧Twitter)で「有害な」投稿に何らかのアクションをしたことがあると、ユーザーは「より有害な」コンテンツを目にする可能性があるとイーロン・マスク氏は指摘した。
マスク氏は、有害なフィードを減らしたければ「かわいい子犬の素敵な投稿をシェアする」ようユーザーに伝えた。
有害なコンテンツに関わると「アルゴリズムにユーザーが有害な投稿が好きだと思わせる」とマスク氏は言う。
Xのフィードで最近「より有害な」コンテンツを目にするユーザーがいる理由をイーロン・マスク氏が明かした。
マスク氏は9月1日の夜、Xのアルゴリズムはユーザーが過去に何らかのアクションをしたものと同じ種類のコンテンツをもっと見たいと望んでいると「推測している」とXに投稿した。
「最も強力なシグナルの1つは、Xの投稿を友人に転送した場合、(アルゴリズムは)ユーザーがそのコンテンツを非常に気に入ったと推測する。転送には労力がかかるからだ」
その上で、マスク氏は「残念ながら、ユーザーがそのコンテンツを友人に転送した理由がそのコンテンツに憤慨したからだとしたら、今のところわたしたちはそれに気付くほど賢くはない」と付け加えた。
マスク氏はその後、子犬の投稿をシェアすれば「フィードが有害になり過ぎずに済む」というあるユーザーの投稿に反応した。
「そうだ。わたしもフィードが最近、より有害になったという友人たちに会った」とマスク氏は書いた。
「ふたを開けてみたら、彼らは有害な投稿の具体例をいくつか、お互いにシェアし合っていたことが分かった。これがアルゴリズムにユーザーが有害な投稿が好きだと思わせたのだ」
Xを含め、ソーシャルメディア・プラットフォームは機械学習のレコメンデーション・アルゴリズムを使って、ユーザーが望むコンテンツを予測している。
Xの場合、2023年のブログ投稿によると、「おすすめ」は候補ソーシング、ランキング、そして「経験則とフィルター」の適用をベースとしている。まずは「何億もの」候補ソースの中から約1500の投稿(その半分はユーザーがフォローしているもの)を選び、ユーザーに関連する投稿をレコメンドする。
そして、これらの投稿を「いいね」やリツイート、リプライといった過去のアクションに基づき、AIシステムを使ってランク付けする。それから、Xはユーザーがブロックしたアカウントの投稿、閲覧に注意を要するコンテンツ、ユーザーが既に見た投稿を削除するなど、ユーザーの好みに基づいて投稿をフィルタリングする。
2023年11月、マスク氏はXのレコメンデーション・アルゴリズムの「大規模アップデート」を展開し、ユーザーのネットワーク外の「より小さなアカウントや投稿を浮上させる」手助けをするとXに投稿した。
Business InsiderはXにコメントを求めたが、回答は得られなかった。