Nhiều người dùng vô tư chia sẻ thông tin cá nhân nhạy cảm với chatbot AI mà không nhận ra rằng những dữ liệu này có thể bị lợi dụng, gây ra hậu quả nghiêm trọng. Jennifer King, nhà nghiên cứu tại Trung tâm Trí tuệ nhân tạo lấy con người làm trung tâm (HAI) của Đại học Stanford, cảnh báo: "Khi bạn nhập bất cứ điều gì vào chatbot, hãy luôn ý thức về khả năng thông tin riêng tư của bạn có thể bị lộ".
Tuyệt đối không được nói 5 bí mật bạn với AI (Ảnh minh hoạ)
Vậy, những loại thông tin nào tuyệt đối không nên chia sẻ với AI? Dưới đây là 5 bí mật bạn cần giữ kín để bảo vệ quyền riêng tư và an ninh cá nhân:
1. Thông tin công ty nhạy cảm
Việc sử dụng chatbot AI để hỗ trợ công việc, chẳng hạn như soạn thảo email hoặc chỉnh sửa tài liệu, có thể vô tình dẫn đến rò rỉ thông tin nội bộ quan trọng. Danh sách khách hàng, dữ liệu kinh doanh bí mật, chiến lược chưa công bố, hay bất kỳ thông tin nào không dành cho công chúng đều có thể bị lộ. Mặc dù nhiều công ty lớn đã đăng ký sử dụng các phiên bản chatbot AI dành cho doanh nghiệp với tính bảo mật cao hơn, nhưng phần lớn người dùng cá nhân và các đơn vị nhỏ vẫn sử dụng các phiên bản miễn phí hoặc thử nghiệm. Điều này đồng nghĩa với việc thông tin bạn cung cấp có thể được sử dụng để huấn luyện mô hình AI, tiềm ẩn nguy cơ rò rỉ và khai thác.
2. Kết quả y khoa chi tiết
AI có thể giúp bạn giải thích các văn bản chuyên môn y tế, nhưng các chuyên gia khuyến cáo rằng thông tin sức khỏe cá nhân vẫn cần được xử lý hết sức cẩn trọng. Chatbot AI không bị ràng buộc bởi các quy định bảo mật thông tin y tế nghiêm ngặt như bệnh viện hay bác sĩ. Điều này có nghĩa là dữ liệu sức khỏe của bạn có thể không được bảo vệ đầy đủ, tạo cơ hội cho việc lạm dụng và vi phạm quyền riêng tư. Nếu bắt buộc phải nhập kết quả xét nghiệm vào chatbot, hãy đảm bảo loại bỏ mọi thông tin cá nhân đi kèm như họ tên, ngày sinh, hoặc mã bệnh nhân để giảm thiểu rủi ro.
(Ảnh minh hoạ)
3. Mật khẩu và thông tin đăng nhập
AI không phải là một "két sắt" kỹ thuật số an toàn. Các chatbot không được thiết kế để lưu trữ thông tin đăng nhập của bạn một cách an toàn. Việc sử dụng các công cụ quản lý mật khẩu chuyên dụng như 1Password hay Bitwarden vẫn là lựa chọn an toàn hơn nhiều để bảo vệ tài khoản trực tuyến của bạn.
4. Dữ liệu nhận dạng cá nhân (PII)
Các thông tin cá nhân nhạy cảm như số CCCD, địa chỉ nhà, số điện thoại, số hộ chiếu, hoặc mã số thuế tuyệt đối không nên được chia sẻ trong các cuộc trò chuyện với AI. Mặc dù một số hệ thống tuyên bố có tính năng tự động xóa dữ liệu, nhưng vẫn không loại trừ khả năng thông tin của bạn có thể bị lưu trữ tạm thời hoặc truy xuất sai mục đích. Việc để lộ PII có thể dẫn đến các hành vi đánh cắp danh tính, lừa đảo và các hình thức xâm phạm quyền riêng tư khác.
(Ảnh minh hoạ)
5. Thông tin tài chính cá nhân
Số tài khoản ngân hàng, thông tin thẻ tín dụng, hoặc danh mục đầu tư cá nhân là những thông tin cực kỳ nhạy cảm và có thể bị tin tặc khai thác nếu được đưa vào một nền tảng AI không đảm bảo. Ngoài nguy cơ bị truy vết dòng tiền, thông tin này có thể bị sử dụng trong các cuộc tấn công lừa đảo tài chính tinh vi.
Các hãng công nghệ lớn cũng đưa ra những khuyến nghị tương tự. OpenAI, nhà phát triển ChatGPT, yêu cầu người dùng "vui lòng không chia sẻ thông tin nhạy cảm trong các cuộc trò chuyện". Google cũng cảnh báo người dùng không nên nhập dữ liệu bí mật vào chatbot AI Gemini, đồng thời nhấn mạnh rằng "bạn nên xem đây là dữ liệu có thể bị kiểm toán".
Trong trường hợp bắt buộc phải nhập dữ liệu cá nhân vào chatbot AI, các chuyên gia khuyến nghị sử dụng mật khẩu mạnh, bật xác thực hai bước và xóa hội thoại sau khi sử dụng. Jason Clinton, CEO của hãng AI Anthropic, cho biết: "Bạn có thể xóa cuộc trò chuyện thủ công sau mỗi phiên làm việc. Nhiều nền tảng cũng có chính sách tự động xóa dữ liệu sau 30 ngày".
Việc sử dụng AI một cách an toàn đòi hỏi sự cẩn trọng và ý thức về bảo mật. Bằng cách tuân thủ các nguyên tắc trên, bạn có thể tận hưởng những lợi ích của công nghệ AI mà không phải đánh đổi quyền riêng tư và an ninh cá nhân của mình.
Tú Anh (Theo Thương Hiệu và Pháp Luật)