ミニ特集「知能システム学の博士論文」 編集にあたって
知能システム学専攻教授 長尾 確
博士論文は、大学(厳密には大学院)から社会への主要なアウトプットの一つです。つまり、博士論文を詳しく見てみると、その大学が社会に対してどのような貢献をしているのかがわかります。
情報学研究科の博士論文は、以下のリンクから参照できます。
https://nagoya.repo.nii.ac.jp/search?page=1&size=20&sort=controlnumber&search_type=2&q=2501
知能システム学専攻では、主に人工知能の応用に関する研究を行っています。今回は、その中で、顔や声や心拍から学習中の学生の心的状態を推定して教育支援を行う研究、音声から感情を推定する研究、自動運転の要素技術である3D地図を生成する研究、同じく自動運転の要素技術である環境認識に関する研究、法律の文章を自動解析する研究をご紹介します。
本特集の記事は、文書生成AI(具体的にはChatGPT)を利用して執筆しました。まず、博士論文の要旨(一般に英語で書かれています)をAIにわかりやすい日本語に書き換えてもらいました。その後、その博士論文の執筆者やその指導教員がその文章を推敲し、図の追加(要旨には図は含まれていません)を行いました。 このようにした理由は、作業が格段に効率化できるからです。また、博士論文の内容をよく理解している人(執筆者本人やその指導教員)が編集しているため、AIの誤りを適切に修正できるからです。
生成AIを使う上での注意すべき点は以下の通りです。
1.データの信頼性: AIは訓練データから学習するが、その情報が常に最新かつ正確であるとは限らない。これは特に科学や技術のように迅速に進化する分野で問題となる。
2.個人情報の保護: AIは一部の学習環境でユーザーからの情報を収集する可能性がある。これは、データの使用方法、保管方法、アクセス可能な人々に関する懸念の要因となる。
3.デジタル格差: すべての人間がAIへの等しいアクセス手段を持つわけではない。これは経済的、地理的な問題からくるデジタル格差によるもので、特に教育における不平等を拡大する可能性がある。
4.社会的スキルの欠如: AIを使用すると、人間同士の直接的なインタラクションが減少する。これにより、社会的スキルやチームワークの能力を育てる機会を失う可能性がある。
5.AIへの過度の依存: AIに過度に依存すると、独自の問題解決能力や批判的思考能力を育てる機会を失う可能性がある。
6.バイアスの問題: AIは訓練データのバイアスを反映する可能性がある。つまり、特定の分野の情報が適切に表現されない、または誤解される可能性がある。
7.誤解の拡大: AIが誤った情報を提供した場合、それが迅速に拡散し、誤解を拡大する可能性がある。
読者のみなさんは、このような点に十分注意して、AIを使いこなしてほしいと思います。