医薬品事業の未来を創る AIソリューション展
特別対談 Part2インタビュー記事
特別対談 Part2インタビュー記事
- HOME
- 医薬品事業の未来を創る AIソリューション展「特別対談」Part2 インタビュー記事
|
「AI×ライフサイエンス ~製薬事業の未来を考える~」
Part2:ビジョン ~ AIが拓く「近未来」の製薬事業の姿 ~ 3〜5年で起こる変革と「二刀流人材」の必要性 |
Part2:ビジョン ~ AIが拓く「近未来」の製薬事業の姿 ~
鴫原:それではパート2、「ビジョン」に入りたいと思います。AIの進歩は非常に早いですが、この先3年から5年先、製薬事業がどのように変わっているかということを想像してみたいと思います。まず創薬研究からいうと、先ほど現状をお話しいただきましたが、それがどんどん進化して3年以内のレベルで創薬研究のところがどのように変わっているでしょうか?
3〜5年で起こる「探索スピード」の格差
成田氏:そうですね。おそらく分かりやすい内容でいうと、今AIを使って探索している企業と使っていない企業の差はもっと大きくなると思います。
例えば、私たちも実績として出させていただいたのが、通常、遺伝子情報の中から標的を見つけるのに2年ぐらいかかるものが、AIだと2日でできてしまったという事例もあります。そうすると、明らかにその標的探索などのスピードが違う。
3年から5年でいうと、もう明らかに「使っている、使っていない」で差が出ます。それが成功するかどうかはまた別の話ですが、やはり数をこなさないと成功にはたどりつかないので、そこの部分での差は確実に大きくなると思います。
鴫原:スピードが上がっていくと、次の臨床研究さらに新しい研究が進んでいく、その数というのは増えるのでしょうか。
成田氏:そうですね。AIを使うことによって、より角度の高い標的を絞り込み、それを実験系ではなくin silicoというかシミュレーションで出していきますので、成功率も上がってくるでしょう。その成果がAIを使って画期的な新薬が見つかり、臨床にのって承認が取れて、実際に患者さんに届いた時には、もうその裏には可能性のあるものはAIによって見つけられている、そこから参入しようとしても、他の企業さんがやってしまっているという世界ではないでしょうか。
鴫原:昔から創薬研究ではセレンディピティ、不連続な発想が必要と言われてきていましたが、AIはその部分ですごく確率を上げることはできるのでしょうか?
AIは「意図的なセレンディピティ」を起こす
成田氏:そうですね。特に私たちのAIは「セレンディピティを意図的に起こす」と言っています。なぜかというと、AIはノンバイアスで答えを出してくるからです。
ノンバイアスというのは、研究者にはおそらくできないことです。研究はいわゆる何かしらのバイアスがかかってされているはずです。例えば、所属している組織・会社に貢献するためのお仕事をされているというのもバイアスですし、研究者が認知している知識の範囲というのも経験からくるバイアスがかかっています。
AIはそこをとっぱらって、いろんなデータを使ってノンバイアスで評価をしてくるので、セレンディピティ、すなわち人が気づいてないだけのものを発見する可能性があります。
医薬品の世界でもセレンディピティはよく言われると思いますが、例えばペニシリンがどうやって発見されましたかというと、シャーレを落として割ったから、それもセレンディピティですよね。
いわゆる「世紀の発見」と言われているものは、トラブルや事故のようなもので見つかってきているのが事実としてあると思います。そこを事故など起こさず、フラットにノンバイアスで何かを探索し、何かを見つけてくるというのはAIは非常に得意です。人が考えてなかったものがAIから導き出される可能性は非常に高いと思います。
鴫原:少しネガティブな話なんですけども、生成AIはハルシネーションというか、医学データを捏造するということが問題になっています。創薬研究のところでAIを、下手に使うとそういう捏造も出てきてしまうんじゃないかという懸念があります。
AIの使い方次第だとは思うんですけど、将来捏造論文が出てきてしまうのか、それともAIの技術によってなくなってくるのか、ハルシネーションや捏造の問題に対してはどのようにお考えでしょうか?
成田氏:そうですね。例えば、生成AIから何か存在しない論文の情報が出てきりするのは、その生成AIがどこのソースを取りに行ったかという話だと思うんですね。
結局AIってデータがないと解析も何もできないので、何のデータを使っているかというところが重要なポイントかなと思います。
例えば、私たちも使っていますけど、PubMedやシュプリンガー・ネイチャー(Springer Nature)の全文など、ちゃんとクオリフィケーションされたデータの中からAIを使って何かを見つけるとなれば、フェイクの方法は存在していないので、そういうのは出てこないです。
逆に、オープンソースなどいろんなところから取ってくるとなると、フェイクニュースを引っかけてきてしまったりとか、存在しない論文のような内容を引っかけてきてしまったりという可能性があるのでフェイク論文のようなものが出てきたり、生成AIによって作られたりというケースは考えられると思います。そこは、おそらくAIがどこのソースを取ってきているかによると思いますので、生成AIの使い方としてそういう情報が入っていないところから情報を取っていけば防げるでしょうし、何が入っているか分からないオープンソースから答えを導こうとするとそういうリスクも発生するでしょう。
またハルシネーションといわれているところでいうと、おそらくプロンプトによって、プロンプトを入れた人間がハルシネーションと認定されている可能性もありますし、そこがフェイクという可能性も当然あります。最終的にはそのAIを使った中で出てきた答えをどう解釈してどう使うかは人間の判断になります。
特に創薬研究の話でいうと、どんな答えが出てきても最終的には実験をして証明をしなければその先に進みません。そこ(フェイク)が起きたとしても、実験で証明しないと次には進まないので、実験までがきっちりできるかどうかで判断はできます。
フェイクが起きないようにすることも大事ですけど、起きたことによって、もしかすると、それをハルシネーションと捉えたのは研究者のバイアスかもしれない。「副作用が薬になる」みたいな話と一緒なんですけど、いわゆるハルシネーションだと思っていたものが実は新規標的のデータだったという可能性は、否定はできないと思います。この辺りをどう考えるかというのが、これからの捉え方だと思います。
鴫原:それは面白い考え方だと思います。ハルシネーションを使えるかもしれないというふうに聞こえます。
成田氏:そうですね。ハルシネーションと言っているものが何なのか、あまり皆さん具体的には見てないと思うんですよね。
ハルシネーションと言われているものが明らかに嘘なのかという点では、有名なプロンプトで初期のChatGPTで「王貞治の所属する球団は?」とプロンプトを入れると結構無茶苦茶な答えが出てきたりというハルシネーションがありました。明らかに人が判断できるもの、事実と違うものをハルシネーションという、でもそれがどうして出てきたかというのは分からない。生成AIは得意なもの、不得意なものがありつつも、何か答えを出さなきゃいけないのでとりあえず出しますが、できるだけハルシネーションを起こさないようにという形に進化しています。
明らかに事実と違うものはハルシネーションと判断できますけど、例えば自分のことをChatGPTに聞いて、自分の評価をしてくださいと言った時に、めちゃくちゃ叩かれた答えが出てきたら、それをハルシネーションと捉えるかどうか。結局ハルシネーションかどうか、事実と明らかに違うものはハルシネーションと言ってもいいけど、ただ明らかじゃないものもハルシネーションと言っている可能性がある。結果として認知していないこともハルシネーションと言っている可能性があります。
創薬標的に関しては、認知してないものがハルシネーションかというと、それは新規標的という可能性もあります。
鴫原:王貞治の話でなぜそういう答えがでるのかというところは、先ほどのセレンディピティに繋がる話のように聞こえます。
成田氏:そうですね。AI自体がどんなデータからどんなものを引っ張ってきているかによると思うんですが、オープンソースでいろんな情報が混在して勘違いしちゃうという可能性はあると思います。だから創薬研究では、できるだけオープンソースというよりはエビデンスのあるデータを使って、そこから何かを導くという仕組み作りが重要になります。
製造・QAの未来:予測と効率化へ
鴫原:製造・品質保証の方はまだAI活用が進んでいないということでしたが、近未来、どういうことが考えられるでしょうか?
成田氏:まずは、製造の部分では品質保証が非常に重要なポイントです。
医薬品の場合ですと、申請やGMPガイドラインに従った形できちんと製造されているかということを、今はドキュメントで監査や評価をしています。これをAIが解析をすることによって異常を検知したり、逸脱を予測したり、あるいは変更管理の漏れがないような対応をしたりすることができます。そうして、今まで人がやっていた業務の置き換えや業務効率という面でAIの活用はどんどん進んでいくと思います。
ロボットや自動化でログデータがデジタルになれば、AIを使ってモニタリングすることが可能になります。製造に関して言えば、もっとどうデジタル化していくのかっていうところが重要で、その辺りがしっかりできてくれば、AIの活用が次に出てくるというふうに考えています。
現場経験者がデジタルを理解する「二刀流人材」の必要性
鴫原:製造・品質保証に限らず、すべてのバリューチェーンにおいてAIをうまく使うには、実際のオペレーションを知っている人とAIの知識・技術、両方詳しくならないといけないと思います。AIエージェントというのは、両方に詳しいという観点から製造や品質保証に使えるでしょうか?
成田氏:AIエージェントは「AIを使いこなすAI」のようなものです。好きなように自分たちで構成して、ツールを使ってタスクをこなしていくというのがAIエージェントだと思います。そこを最適化できる人というのは、やはり現場のオペレーションに精通する人じゃないとそういう考え方はできないと思います。
今、AIの活用人材育成がフォーカスされていますが、重要なのは、AIに特化して知識技術を持っている人よりも、現場のオペレーションのいろんな経験がある人がデジタルを理解していく、いわゆる「二刀流」と言われるような人材育成で、成功している企業などではよくやられている育成方法だと思います。現場を知らないと、いくらAIの技術を知っていても、どう最適化するかという答えにつながらない、ということだと思います。
鴫原:先ほど製造や品質保証について、人がやっていることを自動化する、AIエージェントでやる、という話がありましたが、そうなると人は何をすればいいか?
AIを使う側になるわけですが、AIが社会進出してくれば人の職を奪っていくという懸念、今働いている人が要らなくなるといった懸念が出てきます。製薬事業、特に製造、品質保証の中で人は何をすればいいのでしょうか?AIがやることと人がやることが今と全く違ってくるように見えますが、人は本当にいらなくなるんでしょうか?
成田氏:そこはよく懸念点であげられると思います。ただ実際には全部AIに任せて何かあったときに誰が責任を取るんだ、という話になります。医薬品を製造、提供するという責任があるとなると、そこを100%、AIに任せるのは無理だと思います。
逆にいうと、AIにできないことというのもやっぱりあるわけです。そこは人じゃないとできないという部分は必ず残ります。論文でもタスクを「人だけでやった場合」「AIだけでやった場合」「人がAIを使ってやった場合」で比べると、明らかに一番早く品質高くタスクをこなせたのは「人とAI」ということが明らかになっています。
AI単独で何かを達成する、完全自動化を目指すというよりは人のサポートをするAIとして使う方が、より現実的な形になると思います。
AIに仕事を奪われるということではなく、AIを使った人に仕事を奪われるというのが認識としては正しいと思います。
鴫原:判断するのは人間、責任をとるのは人間、そして新しい創造をするのは人間というふうに言われます。そうすると責任を取ったり判断したりするのはマネージャークラスで、一般の人たちはAIに変わっていってしまうんじゃないかと、でも一方でマネージャーじゃない人たちの判断、責任というのもやっぱり残るわけで、そうするとAIを上手く使う人が価値をあげていく、ということなんでしょうね。
成田氏:そうですね。まさにAIをどう捉えるかというところだと思います。
私もよく例え話をするんですが、「AIは優秀な新卒社員。AIエージェントは優秀な新卒3年から5年目の社員です。」と。AIもChatGPT、Copilotのようにそれぞれキャラクターがあって、コミュニケーションするとそれぞれのキャラクター通りの反応が返ってきます。お付き合いの仕方というのは、人との関わりと変わらない。
新しい社員が増えたと考えて、じゃあその人に対してどうアプローチするのか、今まで人に対してはやってきてるはずなので、同じように組織としてAIを一社員としてどう扱うかということが重要なポイントかなと思います。新卒者が入ってきて現場でオペレーションする方たちがどうつきあうか、というのと同様ですよね。最終的にはチームとして働くというところに行きつくんじゃないかな、と思います。
鴫原:その話からもう1つの懸念がありまして、AIが新入社員の仕事をしてしまう。今までは新入社員が1つ1つ仕事を覚えて、専門職としての技能を身につけていくということをやっていたんですけど、それをAIがやってしまったら、専門職としての人材が育たないんじゃないかという懸念もあるんですけど、その辺はどう考えますか?
成田氏:そうですね。今、私たちも取り組んでいる中のお話としては、やはりこうベテラン社員の方の退職リスクです。経験豊富な方が定年退職してしまうという問題を抱えている企業は結構多くあります。そうすると、製造技術やノウハウを、新入社員や新しい人たちにどう伝えていくかという課題があり、それをシステムとしてノウハウをしっかりデジタル化して貯めていって、それを活用できるような仕組みを提供させていただくケースがあります。
要はそのナレッジをAIが全てこなせるわけではなく、あくまでAIはボディはないですから、実際の生産現場のオペレーションとか、人がやらなきゃいけないことも当然あります。そこをAIとうまく共存をして、若い人たちもそういうシステムから学ぶことができるような仕組みをどう作るかということが重要になります。
それよりも今緊急の課題は、そのベテランの方たちの頭の中にある過去の経験やノウハウというものをどうデジタルとして残していくかということです。
鴫原:ベテランの方の経験やノウハウというのは、全てデジタル化できる、あるいはそうしていかなくてはいけないということなんでしょうね。
成田氏:はい。実際には社内で、何か分からないことがあったら皆さん多分知ってる方に質問して教えてもらうと思うんですけども、そこを直接的な会話も大事なんですけども、デジタルツールを通じてメールやチャットで聞くことも当然あります。そのデータをしっかり蓄積することによって、それを他の人も活用できるということがデジタルでは可能になりますし、そういう実績は私たちにもあります。
その辺りを今後どうしていくか、という所をしっかりとデザインできれば、今の課題については解決していけるんじゃないかと思います。
Part1:現状認識 ~ AIが変える製薬事業の「今」~
Part1 インタビュー記事をご覧になりたい方はこちら >>
Part3:製薬企業は「今」何をすべきか
Part3 インタビュー記事をご覧になりたい方はこちら >>
|
【登壇者】
|


