9月10日、X(旧twitter)から、以下のメールが届いた。
「ご利用のアカウントは、Twitterルール(https://twitter.com/rules)に繰り返し違反したため永久に凍結されました。このアカウントは復元できません。この問題は現在対応を終了いたしました。返信をいただいても確認されませんのでご了承ください」
昨年も、突然の凍結があったのだが、ルールは守っているので、「性的虐待」などの言葉をつぶやいたのがAIが悪質ユーザと認知した恐れがある。
そこで、以下のように異議申し立てをした。
「僕は子ども虐待防止策イベントなどを開催したり、虐待防止の本を書いているので、『性的虐待』という言葉をSNSに書くことがあります。なので、AIチェックで引っかかったのでしょうが、虐待防止の文脈ならOKであれば、凍結解除をお願いします」
すると、「申し訳ありません」と丁寧な謝罪文が1週間後に送られてきて、凍結は解除された。
今回は「繰り返し違反」と書かれているため、これまでの凍結の履歴が重なったとAIが判断し、個別の事情に関する検証もないまま、永久凍結されたようだ。
現在のAIの認識レベルなんて、この程度に低い。
だから、改めて別アカを作るつもりはない。
これまで僕のtwitterアカウントをフォローしてくれた4万6000人以上の方々、スペースに誘ってくれたユーザの方々、残念ですが、僕がtwitterを利用することは金輪際、ありません。
(※できれば、あなたの利用するSNSで、このブログ記事を拡散し、twitterユーザに伝えてください。僕はもうtwitterに何も書けないので)
同様の問題は、Facebookにも起きている。
数年前、日本の授乳服メーカーがFacebookに広告を出そうとしたら、何度やっても拒否されることがあった。
「おっぱいを楽にする」という言葉が、ワイセツだとAIに勝手に判断されたのだ。
これは、AIをプログラムする人間が男性に偏っているため、女性なら「おっぱい」=授乳という意味になることを全く配慮されていなかったからだが、今も改善されていない。
これと似た問題は、YouTubeでも起きている。
たとえば、ジャニーズ問題を語る際、子ども虐待を防止するために「性的虐待」などの言葉を使わざるを得ない時でも、「虐待」という言葉がサムネ画像や動画内の発言にあれば、YouTube側はその動画の広告を自動的に制限したり、おすすめ動画にしなかったり、突然にBAN(アカウント停止)する恐れすらある。
これは、やはりAIをプログラムする人間が、児童ポルノなど子どもに対する犯罪被害を抑止するために、「虐待」という言葉が含まれていれば、「虐待防止」の文脈であろうとも一律に悪質ユーザとして認識させる設定にしているためだ。
その結果、性犯罪者による児童ポルノの公開も、性的虐待防止のための啓発アクションの動画公開も、AIにとっては同じ「悪質ユーザ」になってしまう。
このようにユーザに対して一方的に悪者扱いするプログラムを放置したまま、必要な人件費をかけずに目先の利益を追求する構えは、放漫経営によるおごりだ。
そうしたIT企業たちは次第にユーザの不満を募らせ、いつか手痛いしっぺ返しを食うことになるだろう。
人間の気持ちに配慮しないプログラマが、AIを作る際に勝手に禁句を設定し、その結果としてアカウント凍結になるなら、SNSなど使うに値しない。
SNSなんてなくても、人間は何も困らない。
SNSに依存するなんて、人生に対する冒とくだ。
プログラマ自身が現状のままでいいと思っている以上、AIの精度は顧客を満足させるほどには進化は望めないし、進化するのを待つ間、「虐待」を「にゃくたい」と言い換えて発音するなどして凍結にビビるなんて、まっぴらごめんだ!
俺は、自由に言葉を使いたい。
【関連ブログ記事】
★今一生のYouTubeチャンネル登録はコチラ
上記の記事の感想は、僕のtwitterアカウントをフォローした上で、お寄せください。
下の「シェア」や「ツィート」をポチッと…
55分でサクッとわかる
子ども虐待の現状と、新しい防止策