NISTEP注目科学技術 - 2023_W129
概要
AIセキュリティに注目しています。生成系AIに関連する情報セキュリティに関連する研究課題が拡大されたと考えます。今まではAIをサイバー攻撃の監視や検知に機会学習などを応用することが情報セキュリティにおけるAI研究のメインだったが、生成系AIの発達により、AIシステム自体の脆弱性とそれかた誘因されるセキュリティリスクの解析とその対策が求められてくる。生成系AIが出力した不正確な情報に起因する事件・事故を予防するために生成系AIによる生成物であるかどうかを判断する技術が求められてくる。教育機関においても学生が提出するレポートの真贋判定が新たな課題になっている。これまでも論文の剽窃などを自動的にチェックする技術があるが、同様に生成系AIの関与を測定する技術の開発が求められてくる。技術開発における悪用と誤用はついてまわる。情報セキュリティのコミュニティでは特にそれが顕著である。悪用と誤用を回避するセキュリティ技術開発が重要になる。
キーワード
セキュリティ / AI / サイバー攻撃
ID | 2023_W129 |
---|---|
調査回 | 2023 |
注目/兆し | 兆し |
所属機関 | 大学 |
専門分野 | 情報通信 |
専門度 | 中 |
実現時期 | - |
分析データ 推定科研費審査区分(中区分) | 60 (情報科学、情報工学) |
分析データ クラスタ | 46 (データサイエンス/機械学習・AI) |
研究段階
生成系AIの真贋チェックについては、同じ入力に対して同じ出力がなされることを利用することで判断できるが、入力情報を限定することがまだできない。研究開発はまだ進んでいない。
インパクト
教育界やアカデミアにおける生成系AIの悪用はすでに問題視されつつある。生成系AIによる生成物かどうかを判定する自動判定器の開発が望まれる。生成系AIの発展は社会の発展を促すが、一方で、悪用・誤用による新たな社会問題を引き起こしかねない。AI活用に関するセキュリティ技術は社会のさまざまなセクションで必要になると予想される。
必要な要素
-