中国で大人気の数学ブログを書籍化! 『数学の美:情報を支える数理の世界』
記事:東京化学同人

記事:東京化学同人
数学書ではない。数学読み物だ。定理とか演習問題は載ってない。式もほとんどないから怖がらなくていい。実際、本書の作者はこれでもかというほど「数学は簡単なんだ」というメッセージを押し出してくる。中学や高校で数学に散々な目に遭ってきたとしても、読んでみれば「意外と簡単」という印象を持つはずだ。
数学といっても広い。小学校の算数から、抽象的な記号が矢印で結ばれてるだけの謎めいたものまである。この本で書かれているのは、ズバリ、計算機で使う数学だ。言い換えれば、実際に具体的な答えを出すための数学である。さすがに小学校の算数ではないが、とても日常的で、生活密着型で、知っていたらお得になりそうな数学である。最近街でよく聞くような最先端のAIっぽい用語と絡めて、その裏にある意外に簡単な数学の話題がいろいろとふられている。
ほおら、面白そうだろう? 具体的な目次は最後を見てほしい。
さて、それはそうなのだが、出版社の意図しないところで僕はかなりこの本がツボにはまった。これは新しい本なのである。「中国の人」が「中国の人」のために書いた本だという点が新しい。少なくとも、いま日本で出版されている様々な数学読み物からすると、明らかに異質なテイストである。こんなの見たことない。
どう異質なのか。まず載っている例が実に中国じみている。「ピンイン」が普通に出てくる。イラストには清華大学が描かれている。漢字入力について一章割かれている。中国古代の宇宙観・渾天(こんてん)説なんて数学やアルゴリズムの本で見たことない。そうかと思えば普通の情報理論やグラフ理論の話もシームレスに出てくる。低音と高音が同時に鳴っている音楽が延々と続いていくような感じだ。
現代日本で中国のイメージは必ずしもポジティブではない。言論封殺の独裁国家で、スパイ容疑でビジネスマンが捕まるような国というイメージも一部にあるかもしれない。ただ、それは一面的だ。この本は中国の別の面を見せてくれる。それは、何千年もの歴史を持つ国の人が、自らの歴史と諸外国の歴史を縦横無尽に比較しながら、普遍的な世界観を紡いでいくという、日本にはなかなかないスケールの大きな一面だ。
著者は中国人であるが米国の大学を出てGoogleの社員として米国で働いていた。日本人にもそういう人はたくさんいるはずだし、日本の歴史だって相当長いはずである。が、どうしてか今の日本にはビッグスケールで和洋を融合して書かれた本があまり見当たらない。
数学なんてどうでもいいよ、という人も多かろう。でもそうじゃない。「中国ってなんなんだ」という点を先入観抜きで感じてみたい人に薦める。それは逆に、今の日本に足りない「世界観」を吹き込んでくれるはずだ。
第1章 文字と言語、数字と情報
第2章 自然言語処理 70年の歴史
第3章 統計的言語モデル
第4章 単語分割 テキストを単語に区切る方法
第5章 隠れマルコフモデル 自然言語処理における核心的ツール
第6章 情報の量と働き
第7章 現代言語処理を拓いた イェリネック博士
第8章 簡潔の美 ブール代数と検索インデックス
第9章 巡回を最適化 グラフ理論とウェブページ収集
第10章 ページランク ウェブページを順位付けするグーグルのアルゴリズム
第11章 検索語句とウェブページをどう関連づけるか
第12章 有限オートマトンと動的計画法 地図とローカル検索の核心技術
第13章 アミット・シングハル グーグルのカラシニコフをデザインした男
第14章 余弦定理とニュース記事の分類
第15章 特異値分解ともう一つのテキスト分類
第16章 情報のフィンガープリント
第17章 暗号の数理 テレビドラマ「暗算」と公開鍵暗号
第18章 輝くもの必ずしも金ならず 検索エンジンの質を高める二つのアプローチ
第19章 数理モデルの重要性
第20章 卵は一つのかごに盛るな 最大エントロピー法
第21章 漢字入力の数理
第22章 自然言語処理の父マーカスとその優秀な弟子たち
第23章 ブルームフィルター 乱数と確率の巧妙な掛け合わせ
第24章 マルコフ連鎖の拡張 ベイジアンネットワーク
第25章 条件付き確率場と構文解析
第26章 デジタル通信界の巨人 ビタビ博士
第27章 神のアルゴリズム 期待値最大化アルゴリズム
第28章 ロジスティック回帰と検索広告
第29章 困難は分割せよ クラウドコンピューティング
第30章 人工ニューラルネットワーク 「大規模」で飛躍的に進化
題31章 ブロックチェーンと楕円曲線暗号 ビットコインを生み出した数理
第32章 ビッグデータの威力
第33章 量子暗号はなぜ絶対に破られないのか
第34章 数学の限界 ヒルベルト第10の問題と人工知能の限界
付録 計算の複雑さ
監訳者あとがき「深層学習(ディープラーニング)の進展と大規模言語モデルの時代」