AIアシストで人間が強化される世界線についての所感
前回の記事で書いたように、個人的にChatGPTに相談することは、既にGoogle検索と同じくらい生活の中で当たり前の行為になっている。このまるで魔法のような応答を見せるツールを使っていて、感じたことが色々とあるので、書いておきたい。
知的探求のツールとしての使い方にこれまでと大きな違いがある訳ではない
わたしは、それまで自分の精神のなかに入っていたすべては、夢の幻想と同じように真でないと仮定しよう、と決めた。しかしそのすぐ後で、次のことに気がついた。すなわち、このようにすべてを偽と考えようとする間も、そう考えているこのわたしは必然的に何ものかでなければならない、と。そして「わたしは考える、ゆえにわたしは存在する〔ワレ惟ウ、故ニワレ在リ〕」というこの真理は、懐疑論者たちのどんな途方もない想定といえども揺るがしえないほど堅固で確実なのを認め、この真理を、求めていた哲学の第一原理として、ためらうことなく受け入れられる、と判断した。
情報の真実性を吟味する上で、様々なソースや実験などを通じて多角的に疑った上で、確かに真実らしいと思える事柄を、(将来的に反証され得る)事実と仮定し、その仮説の上に更なる仮説を積み上げる、デカルトの方法的懐疑に基づく演繹法が、近代以降の知的探求のベースとなる方法論と言えるだろう。
翻ってChatGPTの場合は、有益な情報を答えてくれることが多い一方で、hallucination(幻覚)と呼ばれる、まったくの架空の内容をそれらしく回答してくる現象も頻繁に発生する。この真実性にムラのあるアウトプットに対応する上で、従来の方法的懐疑が変わらず有効に機能すると気づく。具体的には、ChatGPTの回答を鵜呑みにせず、使用者が自ら裏取りを行う必要がある。
このように、性質の違いこそあれ、知的探求を補助する従来のツールと、使い方の方法論の部分では決定的な違いが出て来る訳ではないため、GPT-4を本格的に使い始めてまだ1か月も経っていないけれど、生活に浸透するレベルで使いこなすことができている。
動作原理がサッパリ分からない
率直に言って、私はGPTやLLMの動作原理をまったく理解できていない。技術的な難易度が極めて高いこともあるし、識者の解説記事を読んでみても、人によって言っていることがバラバラで、多少なりとも真っ当な理解にいたるまでのハードルが非常に高く感じる。
最近はChatGPTのアシストを受けて、普段使っているプログラミング言語Rubyの言語仕様を掘り下げて理解したり、RubyのライブラリのRailsのソースコードを読み解いたりしているけれど、「訳の分からないものを使って、訳がちょっと分かっているものを、より分かるようにする」というのは、何だかこれまでにない不思議な体験のように感じる。
労働者が楽になる訳ではなさそう
GPT-4を使い始めてから、有益な情報のインプット量が増大して、作業進捗にも有意に差が出ているけれど、一日の疲労度もすごくて、漫画とかに出て来る「改造手術の負荷に耐えられなくなって来た強化人間」みたいな感覚になっている。
— 環 (@fuyu77) 2023年3月30日
AIアシストによって知的生産性を上げた上で、これまでと同じ時間働いたとすると、労働の密度が上がって疲労度が高まると思われる。
"I’m very optimistic that we could increase productivity," he said in an interview at a conference in Glasgow. "We could increase our well-being generally from work and we could take off more leisure. We could move to a four-day week easily."
グラスゴーで開催されたカンファレンスでのインタビューで彼(ノーベル経済学賞受賞者のクリストファー・ピサリデス)は、「私は生産性を向上させることができるだろうと非常に楽観的に考えています」と述べた。「私たちは仕事から得られる幸福感を全般的に向上させ、より多くの休暇を取ることが可能になります。週4日制に簡単に移行できるでしょう」
そろそろテクノロジーの進歩で実際に労働時間が減る世界観を実現したいものだ。
現状様々な格差を生んでいる
現時点でのChatGPTは、様々な観点で格差を生んでいるように見える。
アメリカの一部企業に技術が集中している
元々現代のIT先端技術はアメリカ企業に集中している印象があるけれど、AIツールの現状は、アメリカの一線級の起業家が集って開発中止を求めるほど、アメリカ企業の中でも特に、OpenAIとその出資元のMicrosoftに知見が集中している。
「倫理的な面でたくさんの懸念があります。一番問題なのは、世界で数えるほどの企業だけが、これらのAIを開発し、提供するリソースを持っているということです。中立的でもなければ、民主的でもない。究極的には、彼らの利益につながるようにつくられています」
「こうした企業は、膨大なデータとクラウド設備、そして(米グーグルの)Gメールや(米メタの)フェイスブックを通じてデータを抽出し続けるための巨大な消費者市場を持っています。いま話題のAIは、こうした資源と権限の集中の結果として生まれてきたもので、技術的な革新の成果ではありません。しかし、『魔法みたい』『人間より賢い』『いろんなことに使える』という誇大宣伝が、正確性も安全性もわからない実験的な技術を、正当化することに利用されています」
このような懸念はもっともなことで、ただのツールのユーザーとして一喜一憂しているのは、いかにも踊らされているような感覚もある。
日本のICTは結局、本質的につらいことをやっていないのです。OS、ネットワーク、セキュリティ、クラウド技術といった現代社会の基礎を作ってこられた世界中の方々は、みんなつらいことをやっているのです。問題に直面して頭脳を使って自分たちで考え、解決してきたのです。
ただし、日本人として言うと、基盤となるような技術開発の分野で遅れていて、アメリカ企業の製品のユーザーの立場に終始してしまっているのは何もAIに限った話ではなく、これは根深く如何ともしがたいことのようにも思える。
特定のジャンルが重点的に学習されている
極めて広範囲な知見を回答可能で、ソースコードの出力も流暢に行えるIT領域は、明らかにOpenAIによって重視され、重点的に学習されているように思われる。他のジャンルで使うと、IT領域ほどには有用な感じがしないのが現状だ。
AIツールを使いこなすために使用者にその分野の知見が要求される
結局のところLLM chatbotも「知識も技術もある人が使うと『素晴らしい言語的アウトプットのブースター』になる」一方で、「知識も技術もない人が使うとhallucinationに振り回されて『ただのデタラメ製造機』になる」わけで、単純にデキる人とデキない人との格差が広がるだけなんじゃないかと思えてきた
— TJO (@TJO_datasci) 2023年4月7日
hallucinationが頻繁に起こる性質と関連して、自分が一定以上得意なジャンルで使わないと、適切に質問することもできなければ、回答を吟味することもできない。得意なジャンルをより得意にすることには使えても、サッパリ分からないジャンルを分かるようにするためには使いづらいと言えるだろう。
有効なツールの利用に課金が必要
最近のベンチマーク的なのはほぼ全てGPT-4でやってるのですが、何故かと言えばGPT-3.5とGPT-4だと、もうどうしようもないくらいの「知能格差」と言うべきものが存在するからなんですよね。
— kmizu (@kmizu) 2023年4月9日
それでいて、GPT-4リリースから一ヶ月経ってないわけで、3.5ユーザと4ユーザの認識の溝も結構大きい気が。
↓
無料のGPT-3.5と、月額20ドル課金して使えるGPT-4では、hallucinationの起きづらさや入力可能な文字数の観点で、機能性に決定的な差がある。一般的なサブスクサービスと比べても、20ドルはやや高く、課金を躊躇する人も多いだろう。今後有用な課金ツールが多数出現する場合には、どれに課金するかの取捨選択も適切に行う必要が出て来そうだ。
学習に発展途上国の人材が搾取されている可能性がある
実際に作業を担当したケニア人の労働者は「幼い子どもが見ている中で犬とセックスする男についての文章を読み、繰り返し起こる幻覚に苦しみました。あれは拷問です。そういった文章を1週間を通じていくつも読むことになります」と語っています。給料は年功序列と業績に基づいて決められており、時給1.32ドル(約170円)から2ドルだったとのこと。
ChatGPTのポジティブで人間に忠実なキャラクター性の構築が、発展途上国の人材の搾取の上に行われているとしたら、それは恐るべき不公正と言えるだろう。
格差の解消への尽力が求められる
Second, market forces won’t naturally produce AI products and services that help the poorest. The opposite is more likely. With reliable funding and the right policies, governments and philanthropy can ensure that AIs are used to reduce inequity. Just as the world needs its brightest people focused on its biggest problems, we will need to focus the world’s best AIs on its biggest problems.
市場の力によって、貧困層を支援するAI製品やサービスが自然に生まれることはない。むしろ、その逆の可能性が高い。信頼できる資金と適切な政策があれば、政府や慈善団体は、AIが格差を解消するために使われることを保証することができる。世界がその最大の問題にフォーカスするために最も優れた人々を必要とするように、世界最高のAIを最大の問題にフォーカスさせる必要がある。
ビル・ゲイツが「AIの時代は機会と責任に満ちている(The Age of AI is filled with opportunities and responsibilities.)」という言葉で締める上の文章が示唆するように、一部の最先端企業の自由競争にすべてを任せるのではなく、非営利かつ国際的な枠組みで格差解消に向けた活用を模索する動きが将来的には必要になって来るだろう。
おわりに
以上、現状のChatGPTについて思うことを書いてみた。AIツールのこれからの発展が何だか怖いような気持ちもする一方で、この驚くべき技術の大衆への普及の開始点に、ユーザーとして立ち会えたことに新鮮な喜びを感じている。これから先、どのような未来が待っているのだろうか。「歴史」として思いを馳せるような激動の時代が、実は今私たちが生きているこの時代こそ、まさにそうだったのだと振り返るときが来るのかも知れない。