博士論文をGoogleのAIサービス「NotebookLM」に読み込ませてみた

 Googleが6月6日に日本を含む世界各国でAIを活用したメモアプリ「NotebookLM」を利用可能にしたと発表した。これまでのChatGPTでもできるような情報の要約だけではなく、「仮想リサーチアシスタント」としてアイディアのブレインストーミングまで担ってくれるらしい。私見では、生成AIそのものがクリエイティビティを発揮して人間社会に受け入れられるというよりも、あくまで「補助ツール」として適応・進化していく側面が強いと思っている。

NotebookLMのチャット利用画面

 面白かったのは、論文のPDFデータやこのWebサイトの情報を読み込ませると、即座にQ&Aのように質問を用意してくれ、さらにチャットで深掘りすることもできるらしい。そのほかのツールとどこまで差異があるかまだはかりきれていないものの、この方向性でいいサービスが出てくるものはキャッチアップしておきたいと思った次第だ。

生成AIによる博士論文のポイント

 というわけで、早速、先日書き上げた博士論文を読み込ませてみた。まずは論文概要をご覧いただきたい。だいたい合っている。

このソースは、「自己責任」という概念が現代社会においてどのように理解されているかを考察する言語人類学的研究です。特に、西洋社会における自己責任論と日本社会における自己責任論の差異に着目し、言語/記号人類学、メタ語用論、ディスコース分析といった手法を用いて、その文化的背景や歴史的変遷を明らかにしようと試みています。その分析対象として、イラク日本人人質事件におけるメディア報道やインターネット上の言説を取り上げ、自己責任論がどのように展開され、人々の意識に影響を与えたのかを詳細に分析しています。さらに、自己責任論の根底にある文化的な自己観や責任観についても言及し、日本社会における自己責任ディスコースの特異性を浮き彫りにしています。

 次に勝手に生成された質問がこちら。ちなみに質問はクリックするごとにどんどん生成される模様。

自己責任論を通して、日本人の自己観と責任観はどのように理解できるか?

日本社会における自己責任論は、「自己が責任をとる」という欧米的な視点ではなく、「自己における責任がある」という自己という場に基づいて責任意識を認知するように要請されているという視点から理解できる。 これは、英語圏では個人が責任を引き受ける主体であるのに対し、日本では自己という場が責任を負うべき基盤として認識されていることを示唆している。

この自己責任論における自己観と責任観の差異は、日本語の言語文化イデオロギーに根ざしていると考えられる。 日本語では、主観的な「私」が周囲の環境や他者と相互に影響し合いながら存在することを前提とした表現が多く見られる。 例えば、「雷鳴が聞こえる」という表現は、英語では“I hear thunder”となり、日本語では「私」が「雷鳴」を聞いているという主観的な体験が強調されるのに対し、英語では客観的な事実として捉えられている。

この日本語の特徴的な主観性は、自己責任論においても、周囲の状況や他者の視点を巻き込みながら、自己という場に責任を帰属させる傾向を生み出していると言える。 つまり、自己責任とは、単に個人が自分の行為の結果を引き受けることではなく、周囲の期待や社会的な規範を意識しながら、自己という場において責任を果たすことを意味する。

「迷惑」という言葉は、この日本的な自己責任論を理解する上で重要なキーワードである。 近代化の過程において、政府は公共空間における秩序を維持するために、国民に「迷惑をかけてはならない」という規範を浸透させてきた。 このように、「迷惑」は日本社会において、個人の行為が周囲に与える影響を強く意識させる言葉として機能してきた。

自己責任論は、「迷惑」と同様に、個人が社会の一員としての責任を果たすことを求める言説であると言える。 特に、「自己責任」と「迷惑」は、日本社会の変容、特にグローバリズムの進展に伴い、国民に対して新しい規範意識を要請するために用いられてきた。

自己責任論は、個人の自由と社会秩序のバランスをどのように取るべきかという、現代社会における普遍的な課題を反映している。そして、日本における自己責任論は、「迷惑」や「場」といった日本独自の文化規範を通して理解することで、より深く考察することができる。

生成AIへのダメ出し

 全体的にバッと見たところ、悪くない内容の要約となっている。これはこの質問に対する要約に限らず、いくつか試したものでも同じ印象を抱いた。NotebookLMは、生成AIのわりに「余計な外部情報」を無理に紐づけておらず、与えたデータの「内容の要約」に徹する特徴があるようだ。だから悪くない出力がされている。堅実という印象をまずは持った。ある意味で面白みはないけども。

 博士論文の内容には、かなりいろんな要素を入れ込んだ議論を展開している。そのため要約しづらかったと思うのだが、ポイントとなっている自己責任論の分析から自己観と責任観を新たに読み解いたことを質問として生成し、要約が秒で出てきたので素直にすごいと思った。その要約も及第点に達している。おそらく学部生はもちろん、大学院生でも抽出しずらいレベルの要約内容だ。最後の2パラグラフを抽出できているのもいい。

 ただ、本文中で部分的に挙げた「雷鳴が聞こえる」と“I hear thunder”の日英語比較の箇所はかなりざっくりと要約したものになっていた。要約では、「日本語では「私」が「雷鳴」を聞いているという主観的な体験が強調されるのに対し、英語では客観的な事実として捉えられている」とされている。ただ、英語では“I”が文法的に強制された「主語」を用いられるのに対し、「雷鳴」がある場・文脈のなかで聞いている「私」の体験が言語化されているというのがこの議論のポイントだ。この抜粋だけだと、日本語では主観、英語では客観表現を好むと要約されているが、その内実の部分が対比として説明されていない。

 そもそも、自分の博論ではここはあくまでも数多くある先行研究で論じられる一例から引っ張り出したもので、その内容を「どう」読み解くか、つまりこれまでの先行研究の読み方をどう相対化するか、まで踏み込んだ議論を展開しているので、そこはかなり捨象されてしまっている。内容の要約精度は悪くないが、博論で新しく見出した大事な点の要約はされていない。

 ただ、情報を削ぎ落として説明・理解する分には十分なレベルだと思う。研究では、知識情報を理解するのではなく、どう新しくその知識情報を「更新」したのかが重要となる。ここは研究者なら意識するべき点だと思うし、このやり方にその人なりの属人性が問われるのが人文系の学問だ。もし生成AIを活用した要約を使うのなら、この点を意識しておくべきだと思う。

おわりに

 まだ使ったばかりでその真価ははかりかねるものの、生成AIルールをリサーチアシスタントとして活用できる未来もそう遠くないのかもしれない。

 ちなみに、NotebookLMには「Gemini 1.5 Pro」が採用されており、テキスト情報、PDF、Webサイト、Googleドライブなどから情報を読み込ませることができる。いわゆる、RAG(Retrieval-Augmented Generation:検索拡張生成)というやつを簡単にオリジナルデータから作成できるものらしい。 一般的な企業ならQ&Aの生成なのだろうが、サイトの運営でも、学部生レベルに向けて質問項目を作ってもらうなどコンテンツ作成の補助にも使えるかもしれない。

上記のリンクカードから直接、Googleアカウントからのログインに進み、NotebookLMのサービスページにアクセスできる。