米ニューヨークである携帯電話画面にチャットGPT開発企業「オープンAI」のロゴが表示されている(c)AP/NEWSIS
米ニューヨークである携帯電話画面にチャットGPT開発企業「オープンAI」のロゴが表示されている(c)AP/NEWSIS

【06月21日 KOREA WAVE】生成型人工知能(AI)「チャットGPT」を活用する過程で、業務上の秘密や個人情報の流出、偽ニュースの流布、非倫理的資料の生成など、技術の悪用への懸念が高まっている。これを受け、韓国政府は公共機関での「チャットGPT保安指針」の策定に乗り出した。

行政安全省が先月、「チャットGPT活用方法や注意事項案内書」を配布したのに続き、国家情報院(国情院)は「チャットGPTなど生成型AI技術活用保安ガイドライン」を策定する。内容は▽生成型AI技術概要や保安威嚇▽安全なAI技術使用案▽機関情報化事業保安対策――などで、今月中に配布する予定だ。

イタリアでは3月、チャットGPTを使っていたユーザーの一部に他のユーザーの会話履歴が見えるバグが発見された。また、オープンAI側が加入確認メールを誤発送し、ユーザーの名前やメールアドレス、クレジットカード番号の一部などが約9時間にわたって露出された。このためイタリア政府は情報保護名目でチャットGPT接続を保安措置が確認できるまで一時遮断した。

米商務省の国家電気通信情報庁(NTIA)も「AIの安全な使用や信頼環境構築のためのAI規制(案)」を策定する準備を始めている。

韓国政府の今回の対応はこうした海外の動きに歩調を合わせたもので、行政安全省は公共部門で超巨大チャットGPTを正しく活用できるよう中央行政機関と地方自治体約300機関に「チャットGPT活用方法や注意事項案内書」を配布した。

案内書では、質問する際に非公開情報や個人情報を入力しないよう注意を呼びかけ、チャットGPTが出した返事は必ず事実確認するよう求めた。

国情院は「国家機関でAI技術を使用する時は、民間技術などを活用してAIモデルを行政業務網の内部に自主構築しなければならない」としている。

(c)NEWSIS/KOREA WAVE/AFPBB News