パーフェクトヒューマン日記「社会人の教養がすべて身につくメディア」

社会人の教養がすべて身につきます。パーフェクトヒューマンを目指しましょう!

MENU

AI採用面接PART2 

どうも、パーフェクトヒューマン志願者武信です。 

 

AI採用面接PART2というタイトルで話していきますね。

 

AI採用面接の記事の続きです。

 

今回は前回の記事よりもっと深く考察した記事になっています。

 

大量破壊兵器」ではなく、「数学破壊兵器」という概念も紹介します。

 

中国でもAI化が急速に進んでいる現状も紹介します。

 

今回の記事は有料級だと思います。

 

興味ある方は続きをお読み下さい。

 

では書いていきます。

 

目次。

1 前回の記事の要約。

2 AIの現在。

3 中国で数学破壊兵器が蔓延。

4 僕の意見。

 

 

1 前回の記事の要約。 

前回の記事が以下です。

 

軽く要約すると、「AI採用面接は学歴フィルターをかけるより有効な選抜になる」という予測です。

 

そしてAI採用面接に7割の学生が反対しており、僕の予測ではこの7割の層は自信がない層(主に銘柄大学ではない層)だと予測していて、だからこそ反対していると僕が指摘している内容です。以上、ここまで。

 

2 AIの現在。 

「教育・宣伝・仕事・信用・健康・政治・犯罪など」といった場面でデータ活用が進んでいます。 

 

私達の能力・適性・信用・善悪や身体などの定量化しにくい(数値化しにくい)ことまでデータとして計算され、評価されています。

 

 AI・ビッグデータを動かすアルゴリズムはけっして万能ではありません。(むしろ欠陥だらけです) 

 

それを詳しく書いたのが「あなたを支配し、社会を破壊する、AI・ビッグデータの罠」という本です。

 

アルゴリズムの作り手の先入観や誤解や偏見などが無意識のうちに紛れ込むのです。

 

過去のパターンを参照するので、従来の価値観がそのまま引き継がれて使われます。

 

また元になるモデルは、扱う事柄を単純化していて、リアルな世界の複雑さや機微などは捨て去っていますし、重要な情報も抜け落ちます。

 

さらにどのようなデータを集め、どんな目的に使うのかという選択においても、作り手や企業の価値観やニーズが反映されるのです。

 

つまりアルゴリズムとは数学のなかに「見解」や「成功の定義」を埋め込んだものということです。

 

このアルゴリズムは悪質なので「数学破壊兵器」と本では呼ばれています。

 

特徴として、仕組みが「不透明」で修正されにくく、急速に成長する「規模拡大」性を備えており、不公平な内容などによって「有害」な影響を及ぼす3点があります。

 

その影響力が強大になれば、評価される側はアルゴリズムに気に入られるように行動・態度を変えたりします。

 

純化された評価項目に適応しようとして、皆が同一化し、多様性が失われていきます。

 

また職場での能力で数値化されないコミュ力などの人間的スキルはアルゴリズムの評価の対象から外れます。

 

こうしてアルゴリズムに評価されなくなると、有害なフィードバックが生じるようになります。

 

例えば信用格付けがいったん落ちれば、就職やローンなどで不利になり、その影響が多分野に及ぶ悪循環に陥り、どんどん評価された者と評価されない者の格差が広がります。

 

データの誤情報で被害を受けることもあります。

 

悪く評価されても、自分の評価が悪かった理由は通常わかりません。(アルゴリズムの中身は企業秘密なのです)

 

個人の行動や健康などがデータ化され、企業での報酬の評価に結びつけたりする事例も発生しています。

 

選挙では個人個人に違う画面を見せる手法で選挙行動の操作が可能です。

 

本では主に米国のデータ活用の事例を扱っていますが、日本も他人事ではないでしょう。(米国なので人種差別などが特に強調されています)

 

データ活用することで人間の偏見や誤謬を避けて、公平・中立な判断が期待できるかと思いきや、データにも偏見や誤謬がつきものであり、しかも企業などは公平・公正より効率・利便性・収益を優先するという始末です。以上、ここまで。

 

本では数学破壊兵器のアルゴリズムの改善法なども載っており、有益でした。

 

3 中国で数学破壊兵器が蔓延。

以下の記事を貼ります。「中国政府、外交に人工知能ビッグデータ導入で競争力向上へ」というタイトルです。

headlines.yahoo.co.jp

 

 一部、引用します。

 

中国は既にそのほかのセクターでAIを導入しており、2020年までに全国民に適用されることになっている「社会信用システム」は大きなニュースになった。

 

同システムは監視ツールや機械学習ツールを活用して国民を監視・スコア化し、スコアが高い者に恩恵を、低い者に罰を与えることで社会の管理を目指すもの

 

このシステムの下、政府に批判的な人々が航空便の利用や土地の購入を禁止されたり、子どもをいい学校に通わせることができなかったりするという事態が起こっている。以上、ここまで。

 

まさにアメリカで起きている数学破壊兵器そのものが中国でも起きているようです。

 

4 僕の意見。 

僕の主張としてはAIのアルゴリズムブラックボックス化する利点と欠陥があり、どちらの言い分も一理あるように感じます。

 

アルゴリズムブラックボックス派」はそれを公開してオープンにしてしまうと、AI面接であれば受験生がそれに合わせてくるという欠陥を主張します。

 

大学受験でも京大で採点ミスがあったことを発端に「採点基準を明確にせよ」と言われ、京大側はしぶしぶ了承したようですが採点基準を明確にすると受験生はそれに必ず合わせてきます

 

そうなると本当に自分の頭で考える人材なのか不明になるのです。

 

次に「アルゴリズム透明派」は上記であげた「数学破壊兵器」の例のような弊害が生まれると主張します。

 

また「ある日突然AIがあなたの会社に」という本によれば人事評価は評価に至った経緯やプロセスをオープンにし、その中でAIがどれくらい関わっていて、どういったパラメーターで評価したかを明確にするべきだと言っています。

 

外資系企業では人事評価や給与査定の過程やパラメーターをすべて開示している会社もあるようです。 

 

すべてをオープンにすれば文句があっても言うことができず、納得するしかないです。

 

間違った箇所があれば、補正することもできます。(数学破壊兵器のようになりません)

 

「AIはこのように査定していますが、あなたの場合はこうだから、そのあたりを評価しました」「AIはこう判断していますが、ちょっとチームワークの面で問題がありました」などになります。

 

国や経団連が人事に関するガイドラインをきっちり決めて、それに基づいて評価を行い、最後は人間が判断を下す仕組みにすべきと著者は言っています。

 

ただ、リストラの場合はAIの判断とした方がスッキリするとも言っています。

 

 AIの活用には賛否が分かれるといえます。

 

ではこの辺で。 

 

 参考・引用文献。

「あなたを支配し、社会を破壊する、AI・ビッグデータの罠」

「ある日突然AIがあなたの会社に」