コンテンツのモデレーターは、AIシステムの80%のエラーを報告しました。


人工知能はコンテンツモデレーターの仕事を簡素化するのではなく、複雑にしています。暴力や悪を信頼性高く認識することはできないと、ブルームバーグは13人のプロのオンライン素材フィルターの意見を引用して報じています。

TikTokのスタッフの一人、ケビンという偽名を使っている彼は、1年以上前に自分の仕事でAIプログラムを使用するように指示されたと述べました。彼はエラーの数を約70%と評価しました。例えば、人工知能はビデオの車のダッシュボードに燃料レベルが低いことを報告することができますが、時速200kmを示す速度計を分析する必要があります。

ケビンは、発生する困難にもかかわらず、雇用者は人を機械に置き換え続けると考えています。

プロのモデレーターが主張を確認しました — AIは有害なコンテンツを質的に除外することを学ぶよりも早く適用され始めています。

専門家は、憎悪、プロパガンダ、子供の誘惑、およびその他のオンラインの脅威が自由に広がる、人工知能によって制御されたインターネット環境が生まれることを懸念しています。

「AIの導入を進めてセキュリティ専門家の数を減らすことに着手すれば、それは減少をもたらすでしょう。生きた人間が必要です」とカナダの子供保護センターの技術ディレクター、ロイド・リチャードソンは述べました。

コンテンツモデレーターの仕事は感情的な傷をもたらし、十分な人数を雇うことは難しい課題です。YouTubeのユーザーは1日に2000万本以上の動画をアップロードしています。企業は人工知能に賭けていますが、それはただ妨げになっています。

ブルームバーグの記者と話した13人のモデレーターのうち、12人がニューラルネットワークの統合後に作業が複雑になったと述べました。

「私たちはAIの提案に頼ることはできません。80%のケースで彼は間違います。私たちは彼の提案さえ見ません」と、カザフスタンのコンテンツモデレーション会社で働く36歳のジャネルケ・カイデノワは述べました。

ケビンは、目にしたすべてに対して超正確なマークを手作業で付けることで、エラーの修正に時間を費やしています。この作業は、負荷を増やすだけでなく、より緊急のタスクに費やすことができた時間を奪っています。

彼は、自分の細かい修正が実際にシステムを学習させており、最終的には彼を置き換えることになると確信していますが、経営陣はそれについて明言していません。

2024年5月、RedditはOpenAIとのパートナーシップを発表し、Redditユーザーとモデレーターに新しいAIベースの機能を提供しました。
原文表示
post-image
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
0/400
コメントなし
いつでもどこでも暗号資産取引
qrCode
スキャンしてGateアプリをダウンロード
コミュニティ
日本語
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)