chatgpt 共有してはいけない

10,000 + Buzz 🇯🇵 JP
Trend visualization for chatgpt 共有してはいけない

ChatGPTとのやり取りで絶対に共有してはいけない情報:専門家が警告する5つのデータと対処法

近年、ChatGPTをはじめとする生成AI(Generative AI)は、私たちの仕事や日常生活に驚くほど浸透しています。文章作成やアイデア出し、プログラミングの補助など、その便利さは計り知れません。しかし、その便利さの裏側には、個人情報や機密データの流出リスクが常に潜んでいます。

「え、この情報、AIに送って大丈夫だったかな?」と、後から不安になる経験をした人も多いのではないでしょうか。実際に、専門家は「ChatGPTに共有してはいけない情報」に対して繰り返し警告を発しています。本記事では、ハフポスト日本版やdメニューニュースが伝える専門家の助言に基づき、絶対にAIに入力してはいけない5つの情報と、もし入力してしまった場合の対処法を詳しく解説します。

なぜChatGPTに注意が必要なのか?「共有」という言葉の真意

ChatGPTは、入力された情報を学習データとして利用し、より質の高い応答を生成するように設計されています。これは、AI技術の進化の根幹を成す部分です。

しかし、問題はその「学習データ」の取り扱いです。多くの利用者が、個人のチャット画面を「私的な空間」と思い込んでいる一方で、開発側の仕様によっては、その情報がモデル改善のために利用される可能性があります。米OpenAI社はプライバシーポリシーを改定し、個人情報を含む入力データを学習に使用しないオプトアウト機能を提供していますが、これはあくまで設定によるものです。まずは、どんなデータがリスクになり得るのか、具体的に見ていきましょう。

ここだけは絶対にNG!ChatGPTに入力してはいけない5つの情報

専門家が特に注意を促している、AIに共有してはいけない5つのデータカテゴリーを紹介します。これらは、個人情報保護やコーポレートガバナンスの観点からも非常に重要です。

1. 個人の特定情報(PII):氏名、住所、電話番号

最も基本的でありながら、最も多くの人がうっかり入力してしまいがちなのが、個人を特定できる情報(Personally Identifiable Information: PII)です。

  • 具体的な内容: 自分や家族、友人の氏名、自宅や職場の住所、電話番号、メールアドレス、生年月日、個人的なIDなど。
  • リスク: これらの情報が外部に漏洩すると、スパムメールや詐欺の標的になるだけでなく、最悪の場合、なりすましや身元詐欺に利用される危険性があります。

2. 企業や職場の機密情報

ビジネスユースが進む中で、最も危険度の高い入力がこのカテゴリーに含まれます。

  • 具体的な内容: 営業秘密、未公開の製品情報、顧客リスト、内部会議の議事録、財務データ、取引先との契約書のドラフトなど。
  • リスク: 業界によっては、これらを外部のAIツールに入力すること自体が、守秘義務違反や不正競争防止法違反に抵触する可能性があります。企業の競争力を失うだけでなく、法的責任を問われるリスクも孕んでいます。

3. 健康や医療に関する機密情報

自身の健康状態は、最も守られるべきプライバシーの一つです。

  • 具体的な内容: 病名、服薬情報、診断結果、検査数値、保険証番号、メンタルヘルスに関する記述など。
  • リスク: 医療情報は、保険加入や就職など、人生の重要な局面で不利に働く可能性があります。また、ハッキングなどの標的となるリスクも高まります。

4. クレジットカードや金融情報

金銭に直結する情報は、絶対にAIに入力してはいけません。

  • 具体的な内容: クレジットカード番号、銀行口座番号、暗証番号、証券口座の情報、給与明細の詳細など。
  • リスク: 即座に不正利用や盗難につながる可能性が非常に高いです。仮に入力したチャットを後で削除したとしても、サーバー側ですでに記録されている可能性は否定できません。

5. 他人のプライバシーに関わる情報

自身の情報だけでなく、友人や同僚など、第三者の情報をAIに入力することも重大なプライバシー侵害になります。

  • 具体的な内容: 友人のSNSのスクリーンショット、同僚の個人的な相談、取引先担当者の連絡先や個人的なエピソードなど。
  • リスク: 自分が許可を得ていない情報を他人の目に晒す行為は、プライバシー権の侵害となります。信頼関係の破綻や、社会的な制裁を受ける可能性があります。

プライバシーとキャンパスのイメージ

すでにしてしまった!?入力後の対処法とデータ削除の方法

「あ、これって危ないかも…」と気づいた時、慌てる必要はありません。すぐに以下の対処を講じることで、リスクを最小限に抑えることができます。

対処法1:会話の削除

多くのAIサービスでは、過去のチャット履歴を削除する機能が備わっています。OpenAIのポリシーでは、削除したチャットはシステムから完全に消去されるよう設計されています。

  • 操作方法(一般的な例):
    1. ChatGPTの左側にあるサイドバーの「チャット履歴」から、削除したい会話を選択します。
    2. 会話の横にある「...」(ドットメニュー)をクリックします。
    3. 「削除」を選択し、確認します。

対処法2:学習データからの除外申請(オプトアウト)

個人情報や機密情報を含むチャットが、将来のAIモデル学習に使われることを防ぐには、設定を確認・変更する必要があります。

  • 重要ポイント: 2023年4月以降、OpenAIは「データを使用しない」設定を導入しました。これにより、利用者は自分の発言が将来のモデル改善に使われることを拒否できます。
  • 設定方法: アカウント設定の「データ保護」(Data Controls)セクションで、「チャット履歴を学習に利用する」(Chat History & Training)のスイッチをオフにします。これにより、以降のチャットは学習に使用されなくなります。

対処法3:パスワード変更と金融機関への連絡

もしクレジットカード番号や銀行口座情報を入力してしまった場合は、削除作業だけでなく、即座に以下の行動を起こしてください。

  1. 入力した情報を含むチャットを削除する。
  2. 関連する金融機関のカードを紛失・盗難届けとして再発行を依頼する。
  3. パスワードが漏洩した可能性を考慮し、関連するサービスのパスワードを変更する。

AI社会を生き抜くためのマナーと心構え

ChatGPTとのやり取りは、単なる検索エンジンやチャットツール以上のものです。それは、あなたの「思考」や「知識」をAIと共有する行為であり、現代社会における新たな「公共の場」であると言えます。

最近では