48.3%が生成AIを導入済み。検討中も含めると8割超
現在、会社で生成AIを導入しているか尋ねたところ、48.3%が「導入している」、33.3%が「導入検討中」と回答しました。
■企業における生成AI活用、上位は「データ分析」「文書管理」「クリエイティブ制作」
会社で生成AIを導入している人に対し、どのような業務で生成AIを活用しているか尋ねたところ、「データ分析」が72.4%で最も多く、「社内文書管理」が67.6%、「クリエイティブ制作」が48.3%と続きました。
80%が「生成AIの利用に不安がある」と回答
会社での生成AI利用に不安があるか尋ねたところ、「とてもある」が28.3%、「ややある」が51.7%で、合わせて80%が何らかの不安を感じていることが明らかになりました。
■生成AIの業務利用で懸念するリスク、1位「誤情報の生成」2位「情報漏洩」3位「法的リスク」
生成AIの業務利用におけるリスクについて尋ねたところ、「AIが誤った情報や不正確なデータを生成することによる業務への影響」が68.3%と最も多く、「社員が個人情報や社外秘情報を入力してしまうことによる、社外への情報漏洩」が64.0%、「生成AIによる法的リスク」が48.0%と続きました。
リスクへの対策、約8割が「できていない」
生成AIの業務利用におけるリスク対策について尋ねたところ、全てのリスク項目に対し、約8割が「対策をできていない」と回答しました。
<対策の内容/一部抜粋>
▼ハルシネーションに対する対策
・教育研修で周知
・根拠となったホームページを示してもらい2次確認する、など
▼情報漏洩に対する対策
・社員研修の実施
・セキュリティソフトの使用
・マニュアル作成、など
44.1%が会社での生成AI利用で「ヒヤリとした」または「トラブルになった」経験あり
会社で生成AIを導入している人に対して、会社での生成AIの利用において、過去に「ヒヤリとした」または「トラブルになった」経験があるか尋ねたところ、44.1%が「ある」と回答しました。
■生成AI利用におけるトラブル事例、「機密情報の入力」と「誤情報による業務影響」が上位に
「ヒヤリとした」または「トラブルになった」具体的な内容を尋ねたところ、「社員が機密情報を生成AIに入力してしまい、データ漏洩のリスクが発生した」と「生成AIが誤った情報を出力し、業務に影響を与えた」が53.1%と並び、従業員の操作による情報漏洩リスク等が顕在化していることがわかりました。
■生成AIのリスク防止策は「ガイドライン整備」「管理・監視体制」「社員教育」
会社での生成AIの活用において、ヒヤリハットやトラブルを防ぐために力を入れたいことを尋ねたところ、「会社のAIツールの使い方やルールを明確にガイドラインで示すこと」が59.7%で最も多く、「設定したガイドラインに従って、AIツールの使用を適切に管理・監視できる体制の整備」が53.7%、「社員に対するAIの正しい使い方を教えるための教育・啓蒙活動」が50.0%と続きました。
88.8%がリスクを未然に防ぐ生成AIシステムの導入に意欲
トラブル防止に力を入れたいと回答した人に対して、リスクを未然に防げる生成AIシステムを導入したいか尋ねたところ、「とても導入したい」と「やや導入したい」が合わせて88.8%で、約9割が導入意欲があることがわかりました。
調査概要
調査名称:企業における生成AI利用に関するアンケート
調査機関:Freeasy
調査対象:企業の情報システム部門に所属し、生成AI(ChatGPTなど)の導入または導入検討を行っている担当者、生成AIの導入に興味がある方
調査方法:Webアンケート
調査日:2025年5月20日
有効回答数:300件
※各回答項目の割合(%)は、端数処理の関係上、合計が100%にならない場合があります
出典元:株式会社ChillStack
※詳細については出典元の企業にお問い合わせください。





マナミナは" まなべるみんなのデータマーケティング・マガジン "。
市場の動向や消費者の気持ちをデータを調査して伝えます。
編集部は、メディア出身者やデータ分析プロジェクト経験者、マーケティングコンサルタント、広告代理店出身者まで、様々なバックグラウンドのメンバーが集まりました。イメージは「仲の良いパートナー会社の人」。難しいことも簡単に、「みんながまなべる」メディアをめざして、日々情報を発信しています。