TeaTown’s blog

持続可能な社会に向けた独り言

生成AI(Generative AI)との付き合い方

生成AI (Generative AI)がいよいよ一般向けのインパクトを与える時代になってきたようだ。画像ならMidjourney、Stable DiffusionやDALL-E2、言語なら、ChatGPTやPerplexityが有名どころだ。

https://www.midjourney.com/

https://stablediffusionweb.com/

https://openai.com/blog/dall-e/

https://chat.openai.com/chat

https://www.perplexity.ai/

2022年には画像系生成AIが世間の注目を集め、2023年になって言語系生成AIがネットニュース界隈を席巻している。

これらの技術は、2010年頃から機械学習分野で発展してきた深層学習(Deep Learning)技術が大量のデータを元に大量のパラメーターの学習を行うことで従来とは次元の違う精度を叩き出す学習モデルを作ることができた帰結と言えるだろう。特に言語処理系の深層学習技術では、Transformerといわれる手法が出て飛躍的な精度向上が達成された。Transformerでは、Attentionモデル、位置エンコーディング、Query/Key/Valueモデルの活用など技術的特徴があるが、同時に学習に使うデータにアノテーションが必要ない(正解データが必要ない)という自己教師あり学習(Self-Supervised Learning or SSL)手法を活用したところが肝である。

この自己教師あり学習(SSL)とは、簡単に言えば、穴埋め問題を作るという手法である。大量のテキストデータ(コーパス)はインターネットから今や簡単に手に入る。自己教師あり学習以前の自然言語処理機械学習のためには、このコーパスに、ここは名詞、ここはbe動詞、この単語はここの単語に係っている(修飾している)、この単語の語義は3つあるうちのこれ、などの正解データを人が一々作る必要があり、大変なコストがかかっていた。また、この作業を複数の人で実施すると、人毎にちょっとずつ異なったアノテーションが付与され、整合性の問題が出ていた。SSLだと、元データの一部をマスクすることで穴埋め問題を作ることができ、それを用いてその穴埋め問題を解く機械学習モデルを学習する。なので、学習のための正解データを人手を介さずに無数に作成できるのが画期的なのである。これは、機械学習における一種のコペルニクス的転回と言えるのではないかと思う。容易に想像できると思うが、このSSL手法は自然言語処理だけではなく、画像や音声や時系列データなど、さまざまなタイプの機械学習タスクで応用できる訳である。(ChartGPTでは、人手のランキングを用いているので、完全に一切人手を介していないというわけではないが、従来的な一つ一つアノテーションを付けるような作業は必要なくなっている。)

生成系AIがやっていることは、あるタスク(ある機械学習モデル)において、次のステップの出力を生成し、それを連続的に実行しているということだ。例えば、ある質問に対する答えを生成するText-To-TextのAIは、質問を文脈として、その次に生成される最もらしい単語(や文)を連続的に生成しているということなのである。

ここまで生成系AIの技術的ポイントを見てきた。お分かりいただけただろうか。結局は大量データを用いた機械学習モデルに過ぎないのである。ということは、学習データに依存しているので、豊富に学習データが揃っている分野は良い結果が期待できるが、そうでない分野は良い結果は期待できないということだ。例えば、経済や政治などニュースで日々見かけるような分野は豊富なデータが揃っているので、良い結果が期待できる。しかし、非常にニッチなエリア(例えば、あまり有名ではないスポーツの選手の話題)では、良い結果は期待できないのはお分かりだろう。何せ、学習すべきデータが少ないのである。この「分野」を「言語」に置き換えれば、例えば、英語の情報源に関する回答より日本語の情報源に関す回答の良さは期待できないことが分かると思う。(こういう状況などをカバーすることを意図した転移学習という手法があることはあるが、データ量そのものの影響度はやはり大きいと言わざるを得ない。)

情報量以外の本質的な問題として、しょせん学習したデータに含まれてないことは回答できないということもある。さらに、誤りも当然含まれるということもある。なので、生成系AIの出力を鵜呑みにすることは大変危険であることは肝に銘じてもらいたい。レポートを作る時間がないからといって、ChatGPTやPerplexityの出力結果をそのまま提出してはいけないのは自明である。

世間ではこういう生成AIの危険性を指摘する記事が多数出ている。新しい技術が出てくると必ず繰り返される光景である。もちろん、そういう危険性に対しては、運用上・活用上の対策をきちんと施さなければならないが、既存産業を守るという方向性の規制をかけてはいけないと思う。過去には、イギリスで、馬車権益を守るため車の速度に制約をかけたRed Flag Actという例もある。このようなことをして進歩を止めることにならないようにしてほしい。

ja.wikipedia.org

では、生成AIというツールを手に入れた人類は今後これとどう付き合うかを考えるべきだろう。

少し、歴史的に俯瞰してみよう。AI(あるいは機械学習)が最初に人間のタスクに侵食したのは、分析(Analytics)の分野と言えるだろう。大量のデータを用いて様々な統計的分析などを容易にできるようになった。データサイエンティストという職業が生まれた訳である。近年出てきた生成AIは何をもたらしたのか。従来専門家が時間をかけて作っていたアウトプットである画像や文章を短時間で生成できるようにしたと言えるのではないか。これにより、画家・イラストレーターやレポート作成のオフィスワーカーがいらなくなるという話もでているが、そうはならないだろう。生成AIはツールなのである。表計算的タスクをするツールとしてExcelなどのソフトがあるのと同じだ。ビジネスにおいて表計算的なタスクはむしろ増えているのではないか。生成AIはツールなので、何パターンもアウトプットを従来より短時間で出すことができる。なので、生成AIを使い倒し、多くの出力を出してみて、使える部分をマージしたり、それらをベースに新たに考えたり、変なところを修正したりして、新たなアウトプットを生み出せばいいのである。これからの人間側に必要なスキルは、生成AIを使いこなし、吟味(真偽判定など)・修正・融合することになる。今後このスキルを、吟味(Scrutiny)・修正(Update)・融合(Fusion)の頭文字をとって、SUFと呼ぶことにする。多くのデータから帰納的に推論し何かのアウトプットを生み出すのはもはや人間ではAIには太刀打ちできないのだから、そこはツールとしてのAIに任せて、人間はSUFで頑張るのが一番である。

そういう意味で、SUF以外に人間がやるべきことがもう一つある。それは、新たなデータの創出である。AIは溜め込んだデータに基づくモデルしか作れないので、新たなデータを投入するのは人間の重要な役目になるだろう。そういう意味で、SUFによる新たなアウトプットの創出は、AIが必要なデータの創出という意味もあるのである。