gayuu_fujinaの愚草記 (別館→本館)

はてなダイアリーが更新できなくなったので、泣く泣くこちらに移行。使いづらいようなら、別なサービスへの引っ越しも検討する予定。元ダイアリー:http://d.hatena.ne.jp/gayuu_fujina/

AIが画像で癌の可能性を指摘し病理で癌が確定 - Togetter

AIが画像で癌の可能性を指摘し病理で癌が確定 - Togetter
最初は、AIによる診断アシストが捗るわぁ…ぐらいのニュースかと思ったら、AIが「人間がまだ見つけていない判断基準」で、癌を見つけ始めていて、それを人間へとフィードバックできないという、ブラックボックスの怖い話だった。
まあ、闇鍋なインターネットと違って、病理診断に使われる画像とかには「騙そうとするフェイク」が限りなく少ないだろうから、サンプルの精度が高くて、判断の進歩も長足なんだろうけれど、「見つかるんだから、ええやろ」とする「現実」派と、「説明責任を果たせないなら使えないよ」という「理想」派は、日本が後者が多く、海外は前者が多くて、日本は延々と無駄に労力と金を浪費する印象。
実際、コメント欄がそんな感じ。
個人的には、「使って問題の無い分野なら、どんどん使えよ」と思う。
特に、今回は「人間なら見落としていた癌を、AIが見つけている」だけで、その病理判定は人間が行い、最終的に癌の存在を確定させている。
どう考えても、これは人間側にはプラスの利益しかない話だからな。
逆に、コメント欄で指摘されているような、自動運転やら、AIに主体的に行動させて、その結果、被害が発生しうる分野なら、そうしたリスクの検討は必要だろうけれど。
それにしたって、「その自動運転の結果、人間が運転するより道路の利用効率が上がり、事故も激減した」ってんなら、「その差分がAI利用による利益であり、利益に対して被害が僅少なら、AI利用は是とすべき」と思うけど。
ぶっちゃけ、ン万人に一人の異常者に、普通の人と同じ権利を担保するために、社会が膨大な負担を強いられるってのは、「平等であっても公平じゃない」という不健全さがある、と思うので。
例えば、日本では人間が運転して年3500人ほどが交通事故で亡くなっているが、AI運転でこれが年35人に減るなら、「その35人の死亡理由をAIが説明できないから、対策出来ないので、AI使うの止めて、年3500人死ぬ社会に戻します」ってのは、馬鹿の所業だと思う。