п»ї 超石器文明 『みんなで機械学習』第49回 | ニュース屋台村

超石器文明
『みんなで機械学習』第49回

10月 21日 2024年 社会

LINEで送る
Pocket

山口行治(やまぐち・ゆきはる)

o株式会社ふぇの代表取締役。独自に考案した機械学習法、フェノラーニング®のビジネス展開を模索している。元ファイザージャパン・臨床開発部門バイオメトリクス部長、Pfizer Global R&D, Clinical Technologies, Director。ダイセル化学工業株式会社、呉羽化学工業株式会社の研究開発部門で勤務。ロンドン大学St.George’s Hospital Medical SchoolでPh.D取得(薬理学)。東京大学教養学部基礎科学科卒業。中学時代から西洋哲学と現代美術にはまり、テニス部の活動を楽しんだ。冒険的なエッジを好むけれども、居心地の良いニッチの発見もそれなりに得意とする。趣味は農作業。日本科学技術ジャーナリスト会議会員。

◆南極周辺の新文明

ユーラシア大陸の文明が戦争を繰り返し、栄枯盛衰した後に、英国スコットランドで産業革命が始まった。温暖化する地球では、文明は北に向かうのだろうか。「ニュース屋台村」でも、南極(※過去記事1)や北極(※過去記事2)について考えたことはあるけれども、南極周辺にAI(人工知能)哲学の新文明が生まれるかもしれないという物語を、身近に感じるようになったのは、ごく最近のことだ。北極海の氷が解けて、北極海を通る通信網が現実のものとなった。地球を一周する、大陸間送電網としては、政治に翻弄(ほんろう)される北極よりも、南極周辺のほうが可能性があるかもしれない。しかも、未来のデータ文明にとっては、南米インカの文明から学ぶことが多い。マヤ・アステカ・ナスカ・インカという古代アメリカ文明は、近代文明の終着地であるアメリカ合衆国と隣接していても、共存することも、交流することも無かった。

先住民のアメリカ哲学を、数千年の文明論的な視野で考えると、不思議と日本の縄文時代と重なってくる。中南米と日本の、高度な石器と土器による文明は、殺戮(さつりく)と耕作の鉄器を、拒否または敬遠した。鉄器を使わない農耕は、耕作面積が限られていて、水資源の管理など、高度な知識を必要とする。しかし、先住民の哲学がいかに優れていても、銃と略奪によるユーラシア大陸の残虐な政治に対抗できるはずがない。高度な文明を捨てて、人びとは先住民として生き延びた。

AI哲学が不在のAIビジネスは、極端な社会の不安定化によって、恐竜化した欧米の近代文明を、内側から解体するだろう。排他的な競争だけしていて、未来への構想が無いのだから、当然の帰結だ。AI哲学の母体となる万能計算機は、17世紀末ヨーロッパの哲学者、ゴットフリート・ライプニッツによって夢想された。万能計算機が作り出す新文明は、超高純度シリコンによって実現された超石器文明だ。縄文人と古代アメリカ人の思想を、超石器文明の視点から再評価して、近代文明崩壊後の新文明に先回りしてみよう。

◆データ論理はウソをつかない

数学や物理学の定理は、間違うことはあっても、ウソをつかない。ウソをつくということを、言葉によって意図的に騙(だま)すこと、と考えれば、ウソには高度な言語リテラシーが必要となる。動物も、身体の形を騙す擬態(ぎたい)や、行動の意図を騙すフェイントなど、ウソに近い高度な生存行為を行うことがある。「ウソをつかない」ということは、高度に文化的な行為であって、「ウソをつかない」データ論理によって築かれる哲学は、ウソをつくことを許容する近代文明よりも、未来のAI哲学に近いはずだ。哲学を言語ゲームと見なしたり、論理が演繹(えんえき)のルールでしかないと考えたりする、欧米の論理実証主義哲学は、「ウソをつくことが当然な」経済ゲームの延長上での虚構であって、ウソをつかない自然科学とともにある哲学ではない。

古代アメリカ文明において、マヤやアステカにおいては、特有の絵文字が使われていた。ナスカやインカにおいては、文字は無かったとされている(『古代アメリカ文明-マヤ・アステカ・ナスカ・インカの実像』〈青山和夫・編、講談社現代新書2729、2023年〉)。機械学習との関係で、話し言葉には人類に共通の潜在的な構造がありそうだということ、書き言葉においても、特に数学的な記載においては、異なる文明や民族において、明確な類似性があることから、機械翻訳が可能になる。文字が無いとされるインカにおいても、「キプ」という、結縄によって、人口、暦、貢納などが10進法によって記録されている。古代アメリカ文明において、高度な幾何学的な概念が発達していたことは、神殿や都市の構造から疑いようがない。アルファベット中心の言語観では、漢字やマヤ文字などの組み合わせ論的な概念構成を説明できない。マヤの数字では、ゼロが明示的に記載される20進法になっている。

固有名は場所の論理によって、同一性が保証される。現在でも多用される「ウソ」は、他者の名前を使う「なりすまし」だけれども、同一人物が、同時に2カ所には存在しえないという事実によって、ウソがばれる。人名よりも地名のほうが、固有名として確認しやすい。現在では、宇宙からの画像とGPS(グローバル・ポジショニング・システム=全地球測位システム)の座標化された数字によって、場所は正確に識別される。固有名を数字としてコード化してしまえば、確実にウソはつきにくくなる。

哲学などで多用される抽象的な概念の場合、使用頻度などでコード化できたとしても、コード化自体に曖昧(あいまい)性が残ってしまう。現在の生成AIで実用化しているLLM(大規模言語モデル)では、単語(単語の部分)の入れ替えや、近接する単語との関係、文としての前後関係(最近では論理的関係も含む)などを確率的に評価して、もっともらしい常識的な文章を生成する。しかし、固有名詞を確定的に個体認識して使っていないので、時として、事実とは異なるウソ(ハルシネーション)をついてしまう。意図的ではないとは言うものの、学習するデータに大きな偏り(バイアス)がある場合(残念ながら、多くの歴史記載が、支配者の立場からの記載になっている)、生成AIのウソは、社会問題となる可能性がある。

「ウソをつかない」信頼できるデータによって構成される論理がデータ論理だ。数学の集合論をモデルとする演繹論理とは異なって、過去の事実や知識から構成される帰納論理は、文字による知識ベースを必要とするため、その作成が困難で、第2次AIブームとされるエキスパートシステムが行き詰まった。現在の第3次AIブームは、データから機械学習するため、信頼できる大量のデータがあれば、そのデータの範囲では、人類の知的な能力を超える段階になっている。

◆ウソに仮説生成で対抗する

データのバイアスは、データ収集プロセスを詳細に検討すれば、ある程度排除できる。しかし、データとして記録されてしまうと、データ解析は機械的な操作になるため、バイアスを排除しにくい(※過去記事3など、筆者の論考の出発点)。特に抽象的な概念を多用する(社会科学関連の)データの場合は、要注意だ。データの定義を明確にして(場合によって定義を他言語に翻訳して)、概念的な矛盾や不明確性をテストする仮説を作成する。臨床試験のデータマネジメント業務では、仮説をテストするプログラムを作成する。この業務は、「ロジカルチェック」と呼ばれることもある。筆者の経験では、日本語の定義が甘くなりやすいので、英語に翻訳してから考えると、実用的な仮説(コンピュータープログラム)を作りやすくなる。当然、その逆の場合もあるはずで、哲学的な概念の場合は、漢字やマヤ文字に翻訳すれば、概念間のつながりが見える場合もあるだろう。仮説生成の論理は、前稿(※過去記事4)で紹介した米国の哲学者、チャールズ・サンダース・パースのアブダクション(説明仮説による探求の論理)に相当するので、データ論理としては大いに参考になる。

ノーベル物理学賞を受賞した、カナダ・トロント大学のジェフリー・ヒントン教授が発明したディープラーニングは、画像データの前処理を不要にして、しかも、画像の特徴を自動的に抽出する画期的な技術だ。データを大量に与えれば、プログラムが犬と猫を自動的に判別するようになる。犬と猫の画像は、具体的な個体の画像であるのに、犬と猫という、一般的な概念を学習するので画期的だった。逆に考えると、画像による個体識別の技術は、犯罪捜査などで実用化していたので、驚きはない。しかし、ディープラーニングでは、個体識別を行った後に、抽象化や一般化を行っているのではないことに注意する必要がある。また、ディープラーニングが、哲学などの高度に抽象的な概念を、どの程度、学習できるのかということも不明で、文章になった哲学を、単語のレベルで分析して、常識的な文章を生成しているだけだ。多くの歴史に残る哲学者のように、独自の哲学を論述した時は非常識であっても、数百年後に、その意味が人びとにも理解できるようになる哲学書を、現在のAI技術が生成できるとは思えない。AIが生成する哲学は、重要で正論のように思えても、AIの思考のプロセスが進化論的もしくは民主主義的ではないので、千年後であっても、人びとには理解できないだろう。しかし、ある程度妥当性のある仮説を、コンピューター自身が大量に生成してテストできるようになれば、データのウソ(ハルシネーション〈事実に基づかない情報を生成する現象〉など)は大幅に削減される。

◆あるがままに受け入れる

データ論理を、言語とは別の、疑似的自然の論理として、数学や物理学の定理のように、あるがままに受け入れることは可能だろうか。筆者は、「データは、コンピューターにとっての自然」という、仮説以前のテーゼもしくはドグマを仮定して、本シリーズを論述している。コンピューターにとっての自然は、シミュレーションで疑似的に生成された自然であって、生成に用いる乱数も疑似乱数でしかない。しかし、量子力学の世界のように、本当の自然を、人びとの論理によって理解することができないのであれば、観測されたデータの論理を受け入れて、シミュレーションで、データの意味を探求することは、広義の自然科学であって、AI技術がノーベル物理学賞を受賞しても不思議ではない。むしろ、哲学が文学の仲間であり続けることに違和感がある。

ディープラーニングのAI技術を使った研究が、ノーベル化学賞も受賞した。タンパク質の立体構造を、アミノ酸の配列(すなわち遺伝子の配列)から予測する問題を、「アルファフォールド2」というAIプログラムが、X線結晶解析の精度で解明した(※過去記事5)。この研究は、生物物理学の難問で、タンパク質の立体構造のデータベースを作る作業から始まり、タンパク質の立体構造を計算する量子化学的なコンピュータープログラムを使って、スーパーコンピューターで計算するなど、50年以上の時間をかけて、世界の多くの科学者が挑戦した難問だ。AI技術がノーベル賞を受賞したといったような、受賞内容を理解しない、言葉だけの記事が新聞やSNSに溢(あふ)れている。筆者は、このノーベル物理学賞と化学賞は、タイミングよく熟考された、まさに科学者のコミュニティーにとってクリティカルで、人類全体に有益な受賞だと思う。ヒントン教授は、AI技術が人類に敵対するリスクを発信し続けている。「アルファフォールド2」の使用が、独占されたり、有償化されたりするリスクも指摘されている。すなわち、ChatGPTのような、ビジネス優先の最先端AI技術に、クギを刺しているのだ。核兵器の廃絶を訴えるノーベル平和賞のように、人類に敵対するAI技術の廃絶が、ノーベル平和賞にならないようにするという、明確なメッセージであって、しかも瀬戸際のタイミングかもしれない。

国際連合の平和維持活動が機能しないように、ノーベル賞のメッセージも、言葉を消費する新聞記事やSNSに、埋もれてしまうかもしれない。しかし、アメリカ先住民の哲学が生き延びたように、「ウソをつかない」論理や哲学は、完全に消滅することは無いだろう(『インディアンは決して噓をつかない』〈ハービー・アーデン編著、サンマーク出版、2003年〉)。

P(4+1) Healthy Economy

「ウソをつかない」データ論理は、規範(ロジック)としての哲学的な意味は明確なので、アブダクションの発展形として、機械学習のことばで、形式的な論理として構成することは可能だ。データの範囲を、固有名と場所の論理で明確に定義して、データの範囲を接続して拡張するプロセス(手順)を、演算子のような形で抽象化することになるだろう。論理学の専門家であれば、圏論による論理(『圏論による論理学: 高階論理とトポス』〈清水義夫、東京大学出版会、2007年〉)の応用問題程度かもしれないけれども、機械学習の実用化の立場からは、抽象的な概念を含むデータの範囲を確定して、接続できるようになれば十分だろう。

データ論理だけでは役に立たない。データ論理を土台とする機械学習のAI哲学がどのような未来を目指すのか、AI哲学の哲学的議論に役立つかどうか、みんなで機械学習して冒険(試行錯誤)してみる必要がある。「P(4+1)機械学習」について考えたことがある(※過去記事6)。P4 health、すなわちPredictive(予測可能な)、Preventive(予防の)、Personalized(個別化された)、Participatory(患者参加型の)なhealthcareにPositive health(元気向上)を追加した、東北福祉大学の「元気点検票」をモデルとする健康論が出発点となっている。「P(4+1)機械学習」であれば、経済環境の健康論に応用することが可能であることに気がついた。経済政策を、新しく、P(4+1)の経済指標を構成して、健康的な経済を目指すという考え方だ。実際に、過去の植民地支配から独立して、経済的な繁栄を追求している南アフリカ諸国や南アメリカ諸国の経済データが、日本の経済政策にも役立つかもしれないという発想だ。AI哲学は、AIを使った哲学であって、その冒険が、有用であるのか危険なのかということを、哲学的に議論する。その出発点は、産業革命以降の文明社会が行き詰まっていて、ほぼすべての社会システムが機能不全になっているという時代認識にある。機能不全になっているのだから、健康的でありたいと考えることは、自然だし、未来に開かれた哲学になるだろう。次稿で、もう少し具体的に「P(4+1) Healthy Economy」について考えてみたい。

※過去記事1:『WHAT^』第4回「哲学者が考えたテロリズムのイメージ、空震とは」(2018年3月14日付)

https://www.newsyataimura.com/yamaguchi-127/

※過去記事2:『WHAT^』第5回「大陸間送電網」(2018年4月25日付)

https://www.newsyataimura.com/yamaguchi-128/

※過去記事3:『データを耕す』第8回「信頼できないデータと共に生きる」(2017年6月1日付)

https://www.newsyataimura.com/yamaguchi-129/

※過去記事4:『みんなで機械学習』第48回「インディアンはウソをつかない」(2024年10月14日付)

https://www.newsyataimura.com/yamaguchi-126/#more-21535

※過去記事5:『住まいのデータを回す』第19回「データ論の準備(2)方法」(2019年5月14日付)https://www.newsyataimura.com/yamaguchi-5/

※過去記事6:『みんなで機械学習』第32回「P(4+1)機械学習」(2024年1月9日付)

https://www.newsyataimura.com/yamaguchi-107/

--------------------------------------

『みんなで機械学習』は中小企業のビジネスに役立つデータ解析を、みんなと学習します。技術的な内容は、「ニュース屋台村」にはコメントしないでください。「株式会社ふぇの」で、フェノラーニング®を実装する試みを開始しました(yukiharu.yamaguchi$$$phenolearning.com)。

コメント

コメントを残す