「AIって時々デタラメなこと言うよね」。ChatGPTやGeminiを使ったことがある人なら、一度はそう感じたことがあるのではないでしょうか。存在しない論文を引用したり、実際にはない情報をさも本当のことのように語ったり。この現象は「ハルシネーション(幻覚)」と呼ばれ、AIの大きな弱点として知られています。
でも、ちょっと待ってください。そんな「AIの間違い」が、実はがん治療の新しい道を切り開いているかもしれないとしたら、どう思いますか?
最新の研究で、GPT-4が提案した「一見無関係な薬の組み合わせ」が、実際に乳がん細胞に効果を示したという驚きの結果が発表されました。研究者たちはAIの「突拍子もない思いつき」を真剣に受け止め、実験室で検証したのです。その結果、12組の薬の組み合わせのうち3組が実際に効果を発揮。さらに学習を重ねたGPT-4は、次の提案では4組中3組という高い成功率を記録しました。
これは単なる偶然でしょうか?それとも、私たちがAIの可能性を見誤っていたのでしょうか?
「間違い」こそが創造の源泉
私たちは普段、AIに「正確性」を求めがちです。「正しい答えを出してくれるから便利」「間違った情報は困る」。確かにその通りです。でも、科学の世界では話が少し違ってきます。
歴史を振り返ってみると、多くの偉大な発見は「常識外れの発想」から生まれています。ペニシリンの発見は、培養皿にカビが混入するという「実験の失敗」がきっかけでした。ポストイットは、「くっつかない接着剤」という「失敗作」から生まれた商品です。
AIのハルシネーションも、同じような性質を持っているのかもしれません。人間の常識や既存の知識に縛られることなく、意外な組み合わせを提案する。それは確かに「間違い」かもしれませんが、同時に「人間では思いつかない新しい視点」でもあるのです。
今回の研究で興味深いのは、GPT-4が提案した薬の組み合わせが、既存の医学的知識からは「あり得ない」と思われるようなものだったことです。高血圧の薬と感染症の薬を組み合わせて、がんに効くかもしれない——。普通の医師なら「そんなバカな」と一笑に付すかもしれません。
でも、研究チームは違いました。「もしかしたら面白いかもしれない」と考え、実際に実験してみたのです。その結果、disulfiram(アルコール依存症の治療薬)とquinacrine(抗マラリア薬)の組み合わせが、がん細胞には強く作用しながら、正常な細胞にはほとんど影響を与えないという理想的な特性を示しました。
これこそが、AIの「創造的な間違い」の価値なのです。
薬の意外な「第二の人生」
なぜ、まったく関係ない病気の薬が、がんに効くことがあるのでしょうか?
これには「ドラッグ・リパーパシング」という考え方が関わっています。日本語にすると「薬の転用」とでも言いましょうか。既存の薬を、本来とは違う目的で使うという発想です。
薬というのは、体の中で一つの働きだけをしているわけではありません。血圧を下げる薬でも、実は細胞の増殖を抑える作用があったり、感染症の薬が炎症を抑える効果を持っていたりします。そんな「副次的な働き」が、思わぬところで役に立つことがあるのです。
考えてみれば、私たちの日常生活でも似たようなことがありますよね。元々は軍事技術だったインターネットが、今では生活に欠かせないインフラになっています。粘着テープとして開発されたものが、医療用の絆創膏として使われるようになったり。
薬の世界でも、こうした「転用」の成功例は数多くあります。バイアグラは元々狭心症の薬として開発されましたが、今では別の用途で世界的に有名になりました。アスピリンは解熱鎮痛薬として知られていますが、心筋梗塞の予防にも使われています。
新しい薬をゼロから開発するには、10年以上の時間と数百億円の費用がかかります。でも、既存の薬の新しい使い方を見つけることができれば、はるかに短期間で、低コストで新しい治療法を患者さんに届けることができるのです。
そして、AIの力を借りることで、そんな「意外な組み合わせ」を効率的に発見できるようになってきました。人間一人では処理しきれない膨大な薬の情報を、AIが瞬時に分析し、新しい可能性を提案してくれるのです。
AIと人間、最強タッグの誕生
今回の研究が示してくれたのは、AIと人間が「それぞれの得意分野を活かして協力する」という新しい科学研究のスタイルです。
AIの得意なことは何でしょうか?膨大な情報を短時間で処理すること、人間では思いつかない組み合わせを提案すること、そして既存の常識にとらわれない自由な発想です。
一方、人間の得意なことは?経験に基づく判断、実際の実験による検証、そして結果の解釈や応用です。
この研究では、まさにこの「分業」が機能しました。GPT-4が薬の組み合わせを提案し、人間の研究者がそれを実験で検証する。そして、その結果をAIにフィードバックすることで、AIの提案精度がさらに向上していく。
興味深いのは、AIが単なる「道具」ではなく、「学習する相棒」として働いていることです。実験結果を学習したGPT-4は、次の提案でより高い成功率を記録しました。これは、AIと人間が互いに学び合いながら、より良い結果を生み出していく可能性を示しています。
もちろん、AIが提案することをそのまま鵜呑みにするのは危険です。特に医療の分野では、慎重な検証が不可欠です。でも、AIのアイデアを「参考意見」として聞き、それを人間が科学的に検証していく——。そんな協力関係が、これからの研究スタイルのスタンダードになるかもしれません。
「完璧」を求めすぎない勇気
私たちは普段、AIに「正確で完璧な答え」を求めがちです。間違った情報を出されると、「使えない」と感じてしまうこともあります。でも、この研究は「AIの不完璧さこそが価値の源泉」という新しい視点を教えてくれました。
ジェームス・W・ヤングという広告業界の巨匠が、「アイデアとは既存の要素の新しい組み合わせである」と言いました。今回のGPT-4の働きは、まさにこの「創造的組み合わせプロセス」そのものです。既存の薬の知識を意外な角度で結びつけ、人間では思いつかない発想を提示したのです。
これを「間違い」と呼ぶのではなく、「創造性のパートナー」として捉え直す。そんな発想の転換が、科学の世界に新しい風を吹き込んでいます。
がん治療だけでなく、この手法は他の分野にも応用できるかもしれません。環境問題、エネルギー開発、農業技術——。AIの「突拍子もない提案」を真剣に検討し、実験で検証していく。そんなアプローチが、これまで解決困難だった問題に新しい光を当てる可能性があります。
新しい科学の時代へ
もちろん、まだ課題もあります。AIの提案をどこまで信頼していいのか、倫理的な問題はないのか、誤情報のリスクはどう管理するのか——。慎重に検討すべき点は山積みです。
それでも、今回の研究は科学の未来にとって大きな一歩と言えるでしょう。AIの「ハルシネーション」から始まった薬の発見は、私たちに大切なことを教えてくれました。
完璧を求めすぎず、間違いを恐れず、新しい可能性に開かれた心を持つこと。そして、人間とAIがそれぞれの強みを活かしながら協力していくこと。
「AIの間違いが命を救う」——。そんな未来が、もうすでに始まっているのかもしれません。私たちが普段「使えない」と思っているAIの特性が、実は次世代の科学研究の鍵になる。これほどワクワクする話はありませんよね。
次にAIが「デタラメ」を言ったとき、もしかしたらそれは新しい発見の入り口かもしれない——。そんな風に考えてみると、AIとの付き合い方も少し変わってくるのではないでしょうか。
このサイトでは、AI技術を活用した情報収集・要約及び解説、執筆をもとに、編集チームが編集を行っています。AIによるデータ処理と生成、人間の視点を組み合わせ、わかりやすく役立つ情報をお届けすることに努めてまいります。※AIによる生成コンテンツには誤りが含まれる可能性があるため、情報の正確性を確保するために最善を尽くします。
このサイトでは、AI技術を活用した情報収集・要約及び解説、執筆をもとに、編集チームが編集を行っています。AIによるデータ処理と生成、人間の視点を組み合わせ、わかりやすく役立つ情報をお届けすることに努めてまいります。※AIによる生成コンテンツには誤りが含まれる可能性があるため、情報の正確性を確保するために最善を尽くします。