医療ガバナンス学会 (2023年3月15日 06:00)
この原稿は中村祐輔の「これでいいのか日本の医療」(2023年2月18日配信)からの転載です。
https://yusukenakamura.hatenablog.com/entry/2023/02/18/183020
国立研究開発法人 医薬基盤・健康・栄養研究所
理事長 中村祐輔
2023年3月15日 MRIC by 医療ガバナンス学会 発行 http://medg.jp
「ChatGPT: five priorities for research」 (2月9日、Nature)
「Abstracts written by ChatGPT fool scientists」(1月12日 Nature)
など、AIチャットボットについての記事が頻繁に出されています。
Googleなどの検索システムでは、瞬時に入力したキーワードをもとに検索した結果を表示することができますが、このChatGPTは質問に対する一つの答えを数秒間で回答するのでかなり違ったものです。これまでのデータベースを検索して、その言葉に関連付けている項目を並べるのではなく、一つの回答を導いて示すことができるので、優れものとの評判がたっています。百万人のユーザー獲得までの所要日数がわずか5日で(Youtubeは約260日、インスタグラムは75日)、すでに1億人以上が登録しています。
現に、ChatGPTを著者リストに加えた論文が出版されており、それが問題視されています。人工知能の助けを借りて作成された論文に、人工知能を著者として加える必要はないとの考えが大半のようです。しかし、大学でも学生がChatGPTを使ったレポートを提出して混乱が生じているケースもあります。ますます、考えることが疎かになるかもしれません。
ChatGPTを利用して作成された(エビデンスのない)人工的な抄録が、盗作をチェックするプログラムも見抜けず、オリジナリティーがあると判定されています。これは、単なるコピーとペーストではなく、AI=人工知能が考えて作ったことを示しています。人間の審査員が、抄録をチェックしたところ、人工的に作られたものの32%を本物とミス判断し、本物の14%を人工的に書かれたものと誤認識しました。それくらい精度が高まってきています。データが増えれば増えるほど、人工知能は賢くなってきて、真偽を判断するのが難しくなるでしょう。
このChatGPTに対抗すべくGoogle社がBardと呼ぶ類似の人工知能アプリを限定的に提供したようですが、あまり評判がよくないと書かれていました。私もChatGPTがどの程度のものか日本語と英語でテストしてみましたが、「江崎玲於奈先生のことを教えて」の英語の質問に対しては、かなり正確に回答していました。残念ながら「He」とすべきところを「She」としているなど??の部分もあります。日本語での質問に対しては、全く別の人の説明が出てきました。いくつか試みましたが、本当に論文の手助けになるのかという印象です。
ただし、囲碁や将棋のAIソフトで経験したように、今はいまいちでも、2-3年後には「アッと驚く為五郎」(これをChatGPTで説明を求めるとその回答に思わず吹き出してしまいました。Googleで調べてください。)で技術の進歩は驚異的です。がんの治療法でも、数十年間改良に改良を重ねて、今、臨床現場で欠かせなくなっている抗体療法や免疫細胞療法があります。世の中をよくしたいと弛まない努力を続けること、そして、それをしっかりと支援・応援することが大切です。
2-3年ごとにコロコロと代わる役人が施策を決めている日本の仕組みを変えない限り日本はよくなりません。社会を変革するには、大きな視点に立って、いいものをいいと評価して、悪いものは悪いと断ち切れる真っ当な評価が不可欠です。