急速に拡大する生成AIの進化がディープフェイクの大量生産・拡散を招いていると指摘される。ときに企業に関わる虚偽の情報が拡散したり、企業が持つ各種コンテンツ資産が悪用されるなどのコミュニケーション上のリスクも想定される中、企業はどのように対応すべきなのか。野村総合研究所(NRI)の高橋弓子氏と梶原光徳氏が解説する。
生成AI市場は2030年に20倍 すでに「活用フェーズ」へ移行
生成AI市場の世界需要額は年平均53.3%増で成長し、2030年には2110億ドル(2023年の約20倍)に達する見込みです。日本においても年平均47.2%増で成長し、約1.8兆円(2023年の約20倍)まで拡大すると見られており(※1)、すでにIT・通信、教育・学習業界を中心に、トライアルの実施や導入が始まっています。
その内容は、当初はChatGPTを用いた原稿作成やドキュメントの要約などの試用が主でしたが、画像や音声の生成も交え、AIによる自動アナウンスや広告制作などの取り組み事例も生じています。利用範囲も社内サポート業務にとどまらず、顧客向けに独自の新しいサービスを提供する企業も登場してきています。
2023年まで企業にとっての生成AIの主なテーマは、基盤モデルの性能向上やAI基盤の大規模化でした。…
あと80%