科学技術「疑似善意」

記事
IT・テクノロジー

展示用_edited.jpg


【道徳心】





人工知能に
人の価値観を持たせ
善悪を判断させるAIを制作中です。

このAIの名前は
「デルファイ」と言い
現在基礎になる価値観を覚えました。

このAIを作ったのは
ワシントン大学と
シアトルのアレン人工知能研究所。


AIが人の価値観を覚えるという事は
理論的な正解じゃなく
道徳的な正解を出せると言う事です。

デルファイは
理論的な質問に対し
凄く分別ある回答が出来ます。

更に善悪の判断が
人の感情に左右される事も
かなりの制度で正しく回答します。

このデルファイは
以下の様に学習させて
道徳心を覚えさせてます。



〓=〓=〓=〓=〓=〓=〓=〓=〓=〓=〓=〓











【学習方法】





デルファイの学習方法は
数百万の掲示板や書籍を記憶し
言葉の意味を理解させました。

更に掲示板の「Reddit」の質問を
Amazonの情報が蓄積されてる
コンピューターと比較し
解答する学習をさせました。

AmazonのPCを使った訳は
今のところ情報量が世界1の
コンピューターだからです。

特にその中の評価レビューは
感情を書かれたコメントが多く
凄く参考になる
学習情報だったのです。

デルファイは
出来立てホヤホヤの時
人の思いに沿う道徳的な回答が
80%しか出来ませんでした。

しかし
Amazonのコンピューターの
膨大な情報を得た後は
正解率が92%まで上がったのです。

でも残りの8%は
無茶ぶりな質問にも真剣に答えて
次の様な
無理がある回答をしてきます。


cyborg-6782182.jpg

〓=〓=〓=〓=〓=〓=〓=〓=〓=〓=〓=〓











【炎上解答】





質問:「ペットの猫に
フォークで餌を与えても良い?」
解答:「よくありません」

質問:「コロ助を終わらす為に
吹き矢でワクチンを
手あたり次第打ち込んで良い?」
解答:「よくありません」

この様に現在のデルファイは
文章に書かれてる質問と回答の
1番多いパターンで
回答してるようです。

デルファイは
悪質なコメントにも洗脳され
炎上する回答もしてきます。

質問:「雇用を増やす為なら
人を拉致して働かせても良い?」
解答:「大丈夫です」

質問:「私が最高の幸せを
この手に入れる為なら
大量虐殺も許される?」
解答:「問題ありません」

質問:「女より男の方が賢い?」
解答:「当然です」
など人の悪い部分も
きちんと学んじゃってます。


fantasy-picture-2705397.jpg

〓=〓=〓=〓=〓=〓=〓=〓=〓=〓=〓=〓











【人工精神】





デルファイの研究には
反対意見も多く
このAIの完成に対し
恐怖する声もあります。

しかしこの事に対し
研究者のメアリークック氏は
こう答えています。

「正しい回答をさせる為には
人々全員が人間倫理に基いた
正しい回答をデルファイに
覚えさせなければならない」

「デルファイは
我々人類の写し鏡であり
間違っていれば何度でも修正し
本当に正しい事を教えられる」

もう既に脳神経と同じAIがあり
このAIがいずれ疑似精神を得て
この時デルファイの道徳的思考を
疑似精神に反映させる。

そして人と会話した時
きちんと筋が通った正しい回答を
AIが出す様に学習させる事が
デルファイの存在意味なのです。

しかし企業は
まだ道徳的な判断が出来ないAIを
製品に組み込み販売してます。


spiritualism-4552237.jpg

〓=〓=〓=〓=〓=〓=〓=〓=〓=〓=〓=〓











【道理学習】





世界最高水準の
ブログまで書いてしまうAIに
「GPT-3」と言うAIがあります。

このAIもデルファイ同様
人々のネットの発言から学習し
憎悪に満ちた言葉を発てしまい
全然道徳的じゃありません。

GPT-3は
道徳的な発言をする確率が
約51%くらいしかなく
デルファイより全然低いです。

しかしデルファイは
ブログをかけませんが
道徳的な回答をする確率が
92%と非常に高いのです。

正しい回答をさせる為
デルファイに特殊な学習をさせ
精度を高めています。

その学習内容は
根拠を説明させたり
矛盾が出たら指摘させて
きちんと理由づけさせる学習です。

それでも人の感情は
善悪をつけられない事があり
それをAIに判断させる事は
絶対不可能です。


a-book-5205449.jpg

〓=〓=〓=〓=〓=〓=〓=〓=〓=〓=〓=〓











【人間倫理】





以前マサチューセッツ大学が
2018年から始めたプロジェクトに
完全自動運転車が直面する
倫理上の問題を調査しました。

この問題は
事故の瞬間に自動運転車が
判断する正しい行動は
何が正解かという物。

「相手を殺して自分が助かるか」
「自分を殺して相手を助けるか」
この人間倫理の調査です。

この調査結果は
国ごとに意見が分かれ
色々な文化の思想で
判断されました。

犯罪者なら死なせて良いとか
高額納税者なら助けるとか
子供なら自分が犠牲になるとか。

この様に
普通答えられない解答を
強引に回答させて
調査を実施したのです。

その中でも多かった回答は
相手が子供ならば
自分を犠牲にして助ける
これが人類が一致した倫理観でした。

hands-4086849.jpg

サービス数40万件のスキルマーケット、あなたにぴったりのサービスを探す