とある
SNS投稿されていたショート動画。
アルファベットをモールス信号に変換するだけなのだが、文字の線上にトンツーを走らせてビジュアル的に記憶に定着しやすいなかなか興味深い動画だった。
でその投稿のコメント欄に早速トンツーで何かを書き込んだ者がいた。
「ー・ ・・ ーー・ ーー・ ・ ・ー・」
トンツーで6文字なのですぐに分かるか?と思ったが
「ー・」→N
「・・」→I
と2文字まで解読したところで面倒になってしまい、そのトンツー6文字をコピーして生成AIジェミニに投げてみたところ
「それは『SHIBUYA』です」
と返ってきた。
???
いや、おかしいでしょ?
最初がSだったら「・・・」のはず。
救難信号SOSが「・・・ーーー・・・」なのは私でも知っている。
そもそも文字数が合わないし。
最初の2文字「ー・」「・・」が「S」「H」になることはあり得ない。
その旨投げかけてみると
「失礼しました。『TIBUYA』でした」
とまたトンチンカンな答えが。
再び最初のアルファベット6文字をペーストして投げてみるとまた
「それは『SHIBUYA』です」
「それは『SHIBUYA』です」
…うーんコレは一体?
というのをもう1ターン繰り返したところでジェミニから「同じ質問を繰り返しているようですが、何か意図がありますか?」的な文言がかえってきた。
それはこっちのセリフだよ!
という事で「チェンジ!」と一声鳴いて、訊く生成AIをコパイロットに変更。
同じ質問を投げてみた。
すると「それは『BIG EAR』です」
とまたまたトンチンカンな返答が。
何故どちらのAIもまともにとりあってくれないのだ?
…一体何が起こっているのだ?
2〜3度問い直してみると、回答が表示される時に一瞬別の回答が表示され1秒とたたないうちにトンチンカン回答に切り替わっているのに気づいた。
もう一度その謎フレーズをペーストしてその一瞬を注意深く観察したら
「NIGGER」
の文字が浮かんで一瞬で「BIG EAR」に差し替わった。
察し…!
なるほど、差別用語回避ムーブだったわけか。
…いや、これマズいでしょ?
「差別用語なので注意が必要です」
といった注意喚起が付記されるなら分かるが、表示回避のためにウソ教えるって…
仮に私がその間違った方の言葉を誰かに教えてしまって齟齬が発生する可能性は充分にあるわけでしょ?
今後改善されるのを期待。
