NISTEP注目科学技術 - 2023_E472
概要
大規模言語モデルは、現在、非常に大きな注目を集めている技術であり電子化された文書のモデルを用いることで、様々な応用が期待されている。人間が話す自然言語での問い合わせに対して、自然言語で回答することが可能であり、医師の国家試験に対して合格点以上での回答を行うことができるなど、非常に高性能な知識ベースとなっている。事実とは異なる回答を捏造してしまうことも少なくないが、検索結果と組み合わせた一定の信頼性を持つシステムへの展開も行われており、人間の思考を助けるツールとしてエポックメイキングな技術となっている。
実際の応用例としては、「エレベータピッチの最初の話し方を教えて」のような問いから、テンプレートとなるような文を生成したり、「Raspberry Pi で DIO の値を読む Python code を教えて」と聞くと、実行可能なプログラムコードを提示してくれるなど、回答できる内容の範囲は非常に広大で汎用的である。今後は、人間が蓄えてきた文書を基盤として情報を提供するインタラクティブな知識ベースとして大きく発展することが期待できる。
実際の応用例としては、「エレベータピッチの最初の話し方を教えて」のような問いから、テンプレートとなるような文を生成したり、「Raspberry Pi で DIO の値を読む Python code を教えて」と聞くと、実行可能なプログラムコードを提示してくれるなど、回答できる内容の範囲は非常に広大で汎用的である。今後は、人間が蓄えてきた文書を基盤として情報を提供するインタラクティブな知識ベースとして大きく発展することが期待できる。
キーワード
大規模言語モデル / チャットボット / 自然言語処理 / 問い合わせ応答 / 知識ベース
ID | 2023_E472 |
---|---|
調査回 | 2023 |
注目/兆し | 注目 |
所属機関 | 公的機関 |
専門分野 | 情報通信 |
専門度 | 中 |
実現時期 | 5年未満 |
分析データ 推定科研費審査区分(中区分) | 61 (人間情報学) |
分析データ クラスタ | 59 (教材開発・学習支援システム) |
研究段階
すでに実用が始まっており、応用研究についての展開が盛んに議論されている。
インパクト
人間が行っている知的作業と呼ばれるタスクのほとんどが大規模言語モデルによって代替される可能性を持っており、社会の成り立ちを大きく変える可能性がある。現状でも、常識的なコメントを高いクオリティで返答するだけであれば、ほとんどの人間の能力を超えているレベルであり、専門的な知識を持たない人にとっては真偽の判定自体が困難なレベルに達している。よって、適切に利用することで人間の知的な活動全般を効率的に行うための良いツールとなることが期待される。
必要な要素
大規模言語モデルに問い合わせました。
### 質問 ####
「大規模言語モデルに向けて必要な要素(要素技術の進展や、社会的要素など)や留意すべき点があれば、その内容を教えてください。」
「社会的な問題に注目すると?」
### 返答 ###
大規模言語モデルは、社会的な問題にも注目する必要があります。以下にその例を挙げます。
1. 偏見や差別の強化:大規模言語モデルは、大量のデータから学習するため、偏見や差別的な表現を含む情報を取り込む可能性があります。そのため、このようなバイアスを回避するための配慮が必要です。
2. プライバシーの侵害:大規模言語モデルは、多大な量の個人情報を扱うことがあります。そのため、プライバシー侵害や悪用を防ぐための対策が必要です。
3. 人材の流出:大規模言語モデルを開発するためには、高度な技術と知識が必要です。そのため、人材の流出が起こる可能性があり、これは技術的な側面だけでなく、経済的な問題にもつながることがあります。
4. 情報の信頼性の低下:大規模言語モデルが広く普及することで、人工的に生成された情報が実際の情報と混同される可能性があります。これにより、情報の信頼性が低下することが懸念されます。
5. 人間と機械の関係性の変化:大規模言語モデルが人間に代わって情報処理を行うことが増えると、人間と機械の関係性が変化する可能性があります。これにより、社会的な影響が生じることがあります。
以上が、社会的な問題に注目する必要がある大規模言語モデルの例です。
### ここまで
徒歩から自動車にモビリティーが変化するレベルの発展の可能性もあり、自動車の運用に ”先導して歩く者” を要請するような自縄自縛にならずにうまく活用する方法を見つける社会側の問題が大きいのではないかと考えます。
### 質問 ####
「大規模言語モデルに向けて必要な要素(要素技術の進展や、社会的要素など)や留意すべき点があれば、その内容を教えてください。」
「社会的な問題に注目すると?」
### 返答 ###
大規模言語モデルは、社会的な問題にも注目する必要があります。以下にその例を挙げます。
1. 偏見や差別の強化:大規模言語モデルは、大量のデータから学習するため、偏見や差別的な表現を含む情報を取り込む可能性があります。そのため、このようなバイアスを回避するための配慮が必要です。
2. プライバシーの侵害:大規模言語モデルは、多大な量の個人情報を扱うことがあります。そのため、プライバシー侵害や悪用を防ぐための対策が必要です。
3. 人材の流出:大規模言語モデルを開発するためには、高度な技術と知識が必要です。そのため、人材の流出が起こる可能性があり、これは技術的な側面だけでなく、経済的な問題にもつながることがあります。
4. 情報の信頼性の低下:大規模言語モデルが広く普及することで、人工的に生成された情報が実際の情報と混同される可能性があります。これにより、情報の信頼性が低下することが懸念されます。
5. 人間と機械の関係性の変化:大規模言語モデルが人間に代わって情報処理を行うことが増えると、人間と機械の関係性が変化する可能性があります。これにより、社会的な影響が生じることがあります。
以上が、社会的な問題に注目する必要がある大規模言語モデルの例です。
### ここまで
徒歩から自動車にモビリティーが変化するレベルの発展の可能性もあり、自動車の運用に ”先導して歩く者” を要請するような自縄自縛にならずにうまく活用する方法を見つける社会側の問題が大きいのではないかと考えます。