「グーグルの対話型AI、画像生成機能を一時停止 歴史的に不正確な事例が見つかる」という記事が流されているが、意味が分からない

 2024年2月23日配信のYahooニュースで、「日テレNEWS」を引用した「グーグルの対話型AI、画像生成機能を一時停止 歴史的に不正確な事例が見つかる」という記事が配信されていました。同じ文章は他のメディアも配信しています。

 書かれている内容は、管理人には意味不明の文章の羅列に過ぎません。

 そもそも論を書くと、現在の対話型AIは嘘つきツールです。平気で嘘を出力します。ところが、日テレNEWSの報道では、AIが正しい情報を出力しているとの誤解を与える文章になっています。これって、フェイク報道です。国民に誤った情報を伝えるように誘導しているとしか思えない、とても悪質な内容になっています。

 もし、この報道を読んだ人がAI生成文章について無知な人だったとしたら、AIの生成文章は正しいのだと誤解するように誘導する書き方になっています。しかし、現実は、対話型AIは嘘つきツールです。どんな嘘でも平気で生成します。このことは、すでに検証済みなので、今さら書きませんが、関心のある方は過去記事をご覧ください。

 「日テレNEWS」の記事を読むと、こうやって間違った事柄が国民に伝わっていくのだろうなぁ、と恐ろしくなりました。この記事は別の書き方がいくらでもできたのに、あえて、このような書き方になっている理由が管理人には理解できません。煽りを目的としたライターの記事なのでしょうか。

 そして、それを転載しているメディアも同罪です。少し読めば、おかしな記事だと気づくはずです。つまり、だれも、どのメディアも内容をチェックしていない。恐ろしい時代になりました。

 本当に日テレが発信した記事なのかと疑ってしまう内容になっています。管理人が唖然とする記事なので、日テレではだれもチェックせずに報道していることが分かります。

 なんとも、恐ろしい。こんなレベルの仕事をしてメディアですと言えるのでしょうか。嘘つきAIはAIの能力の問題ですが、今回の事例は、メディアの能力の問題ということでしょうか。