« スマホ社会はなぜ生きにくいか ⑤ | トップページ | スマホ社会はなぜ生きにくいか ⑦ »

2021年8月11日 (水)

スマホ社会はなぜ生きにくいか ⑥

続き:  

5 自動分類・予測・推薦

10月 東京証券取引所システム障害で丸一日取引停止

11月 米国大統領選挙

11月 ティックトック米国事業売却期限延長

12月 フェイスブック主導のデジタル通貨リブラがディエムに名称変更

12月 米国新型コロナワクチンの接種開始

12月 米国政府機関などへの大規模サイバー攻撃判明

 2020年のコロナ状況下で行なわれた米大統領選挙は異例だった。落選したトランプ大統領が選挙の敗北を認めず、選挙に大規模不正があったと証拠なしに主張し続けた。彼は、選挙後に国土安全保障省サイバーインフラ安全局長や司法長官が発表した、選挙は安全に行われ不正選挙の証拠はないとする説明を拒否した。この結果、2021年1月大統領選挙結果の承認審議中の議会議事堂への襲撃事件が発生した。

■SNS運営企業に対する遠隔公聴会

 2021年3月米国議会の公聴会で、一人の議員が出席したCEOに質問した。「解決すると言いながら、いまだにワクチンに対する虚偽情報や、ホロコースト否定論を人々に流し続けています。それではイエスかノーかでお答えください。1月6日の議会議事堂襲撃事件に至る一連の虚偽情報拡散にあなた方のプラットフォームは何らかの責任ありとお考えですか?」一人のCEOが答える。「私たちの責任はプラットフォームを作る責任だと思います」

 

 現在の米国の世論の分断については、動画共有サイトの推薦アルゴリズムや、オンライン個人別広告が影響したと考えられている。

■地球平面説

 テキサス工科大学の社会学者の調査によると、米国の若者の間で地球平面説を信じる人が増加傾向にある。きっかけを調べると、毎日見ている動画共有サイトの動画で、自動推薦され、それまで考えもしなかった地球平面説の動画を視聴し、信じるようになっていったという。動画推薦アルゴリズムがなぜ地球平面説の動画を推薦したのかについては、合計視聴時間最大化説が有力である(大手動画サイトは2019年1月に地球平面説動画を推薦対象から除外したと発表)。

■自動再生

 ニューヨーク・タイムズ紙のコラムによると、2016年米国大統領選期間中の動画推薦アルゴリズムを社会学者が調査した。片方の候補者の選挙集会のふつうのニュース動画からスタートし、自動推薦された動画再生を続けると、白人至上主義者やホロコースト否定論者の動画に行き着いた。もう一方の候補者からスタートすると9月11日攻撃に米国政府が関与したとの動画に到達した。つまり推薦アルゴリズムはふつうのニュース動画からはじめてどんどん極端な動画を自動再生していった(動画推薦アルゴリズムで極端化がなぜ起こるかについては、様々な説がある)。

■自動チャットシステムへのデータ攻撃

 2016年3月、マイクロソフトは人間がAIと対話するチャットボット「Tay」を公開したが、16時間で公開中止となった。この間、9万6000以上のチャットを発信し続けたが、外部から大量の悪い言葉や不適切発言を受信し、マシンラーニングシステムがこれらを模倣し、ヒトラーを賛美したり、有名人を侮辱したり、下品な性的表現を使うようになったためである。調整後の二回目公開もその後中止になったという。

■2016年米国大統領選挙

 以下の事実は2018年3月に判明した。大手交流サイトの心理分析アプリで27万人分以上のプロファイル情報とその友人5000万人分以上のプロファイル情報が学術目的として収集され、その情報が選挙コンサルティング会社に渡り、2016年の米国大統領選挙の介入目的で、意見対立をあおるような大量の有料個人別広告が発信された。

■内定辞退率予測

 日本国内で2019年8月に就職活動支援サイトが、サイト内外の学生のウェブ行動履歴情報などからマシンラーニングプログラムを使って内定辞退率を予測し、依頼された企業に高額な価格で提供していたことが判明した。サイトは十分同意を得ていなかったことを理由に辞退率予測の提供を中止した。情報を購入した企業は内定を決める判断には使用していないと発表している。

■自動面接アプリ

 人工知能によるスマホ面接は、米国や日本で広く行なわれている。アプリをダウンロードし、志望企業コードを入力すると、面接が始まる。まずリハーサルで練習の質問に順番に回答する。練習はやり直し可能で先方に送信されることはないという。練習が終わると、面接本番となり、はじめての質問に短い準備時間後に答えていく。収録が終わると動画は送付され、声や言葉の選択、イントネーション、表情の動きやしぐさなどをプログラムがスコア付けし分類、先方企業の担当者の判断資料になるという。

 

 人工知能の一つの手法であるマシンラーニングシステムの利用範囲が拡大し、人間に一生にかかわるような重大な判断めで参考判断を提供するようになってきた。一人の人間の採用、解雇、信用枠、再犯リスクなどに判断を下している。米国では2016年に裁判所が民間のマシンラーニングプログラムの再犯率予測を使用することの適法性について裁判となり、ウィスコンシン州最高裁判所はメーカーの警告文付きで特に問題はないと判断している。

 自動的な分類・予測・推薦を行なうマシンラーニングシステムは準備段階で訓練データが必要なことが多い。訓練データが元来の社会のバイアスを反映している場合、人種・性別などに対して公平な判断とならない事例が多数報告されている。どんな方法に、どんな訓練データを与えたかは商業的秘密として非公開となり、最終判断の精度も非公表の場合がある。

« スマホ社会はなぜ生きにくいか ⑤ | トップページ | スマホ社会はなぜ生きにくいか ⑦ »

日記・コラム・つぶやき」カテゴリの記事