Sự việc bắt đầu được chú ý khi một số chuyên gia bảo mật phát hiện các đoạn hội thoại trên ChatGPT có thể được truy cập dễ dàng chỉ bằng một truy vấn tìm kiếm đơn giản. Những gì họ tìm thấy không chỉ là các đoạn văn bản thông thường mà còn bao gồm cả những tâm sự đời tư, thảo luận công việc, dữ liệu nhạy cảm và thậm chí là những lời thú nhận mang tính cá nhân sâu sắc.
Nguồn cơn của sự cố đến từ tính năng “Share chat” mà OpenAI giới thiệu để người dùng chia sẻ cuộc hội thoại. Khi người dùng chọn ô “Make this chat discoverable”, hệ thống sẽ tạo một liên kết công khai, cho phép các công cụ tìm kiếm như Google tiếp cận. Tuy nhiên, điều đáng nói là giao diện của tính năng này không đủ rõ ràng để cảnh báo người dùng rằng nội dung của họ sẽ trở nên công khai theo nghĩa rộng nhất. Nhiều người đã lầm tưởng rằng họ chỉ đơn giản gửi một đường dẫn riêng tư cho bạn bè hoặc đồng nghiệp.
Một số chuyên gia bảo mật phát hiện các đoạn hội thoại có thể được truy cập dễ dàng chỉ bằng một truy vấn tìm kiếm đơn giản
Sau khi sự việc vỡ lở, OpenAI đã nhanh chóng có động thái khắc phục bằng cách tạm ngưng chức năng chia sẻ có thể tìm kiếm và phối hợp với Google để loại bỏ các liên kết đã bị lập chỉ mục. Theo báo cáo của Fast Company, có hơn 4.500 liên kết bị phát hiện chia sẻ công khai, một con số đáng báo động trong bối cảnh lượng người dùng ChatGPT đang tăng nhanh trên toàn cầu.
Sự cố này đã phơi bày một thực tế đáng lo ngại: nhiều người dùng đã sử dụng ChatGPT để viết email, trình bày bệnh lý, phác thảo chiến lược kinh doanh hay tâm sự những điều thầm kín vì tin rằng đang chia sẻ trong một không gian kín. Nó cho thấy bất kỳ thao tác nào, dù là vô tình, cũng có thể biến cuộc trò chuyện đó thành dữ liệu công khai.
Giới quan sát và những người quan tâm đến quyền riêng tư đang đặt câu hỏi: Liệu một công ty AI như OpenAI có đang đặt trách nhiệm đúng mức đối với dữ liệu người dùng?
Về vấn đề này, Sam Altman, CEO của OpenAI, từng thừa nhận trong một cuộc phỏng vấn rằng các cuộc hội thoại với ChatGPT không được bảo vệ bởi những nguyên tắc pháp lý truyền thống về bảo mật. Trong bối cảnh AI ngày càng len lỏi vào các lĩnh vực nhạy cảm như chăm sóc sức khỏe tinh thần hay giáo dục, việc thiếu một khung pháp lý rõ ràng khiến người dùng đứng trước nguy cơ bị phơi bày những thông tin không mong muốn.
Trên thực tế, đây không phải là lần đầu tiên OpenAI đối mặt với những lo ngại về quyền riêng tư. Các nhà nghiên cứu bảo mật từng cảnh báo về khả năng các mô hình ngôn ngữ lớn như GPT lưu trữ và “vô tình” tái hiện lại dữ liệu từ các cuộc trò chuyện trước đó. Những kỹ thuật tấn công kiểu “reconstruction” (truy xuất thông tin gián tiếp từ mô hình) cho thấy AI không hoàn toàn là “một tờ giấy trắng” trong mỗi lượt chat mới.
Không thể phủ nhận, AI như ChatGPT đã thay đổi cách con người làm việc và sáng tạo. Tuy nhiên, sự cố lần này là minh chứng rõ nét rằng đi cùng với sự tiện lợi là vô vàn rủi ro. Không có gì là thực sự riêng tư nếu không có những rào chắn công nghệ vững chắc và sự tỉnh táo của chính người dùng.
T.Hà (Theo Thương Hiệu và Pháp Luật)