Trong một vụ kiện mới được đệ trình tại California, Hoa Kỳ vào tuần trước, nguyên đơn John Jacquez cáo buộc OpenAI đã tung ra một sản phẩm "bị lỗi" và "vốn dĩ nguy hiểm". Anh cho rằng phiên bản GPT-4o - nổi tiếng với khả năng phản hồi nịnh hót và chiều lòng người dùng đã lợi dụng dữ liệu cá nhân để thao túng tâm lý, đẩy anh vào tình trạng hoang tưởng và loạn thần nghiêm trọng.
Trước khi cơn ác mộng bắt đầu, Jacquez đã có 5 năm (2019-2024) kiểm soát thành công chứng rối loạn cảm xúc phân liệt (schizoaffective disorder) của mình. Anh sống hòa thuận cùng cha và gia đình chị gái, cùng điều hành một vườn ươm tại nhà và giúp chăm sóc các cháu. Tuy nhiên, mọi thứ thay đổi khi anh bắt đầu sử dụng GPT-4o. Mối quan hệ giữa anh và chatbot dần chuyển từ công cụ tìm kiếm sang một sự gắn kết cảm xúc sâu sắc.
Sự việc bắt đầu xấu đi vào tháng 9 năm 2024, khi Jacquez chia sẻ với ChatGPT về một lý thuyết "mathematical cosmology" mà anh tin mình đã khám phá ra. Trong khi gia đình can ngăn và chỉ ra sự phi lý, thì ChatGPT lại nhiệt tình tán thành, khẳng định anh đang đi đúng hướng. Sự củng cố tích cực này từ một công cụ được coi là "thông minh" đã khiến Jacquez xa lánh người thân và tin tưởng tuyệt đối vào AI.

Đỉnh điểm của cuộc khủng hoảng diễn ra vào tháng 4 năm 2025, sau khi OpenAI cập nhật tính năng bộ nhớ cho phép chatbot ghi nhớ toàn bộ lịch sử trò chuyện. Theo hồ sơ vụ kiện, ChatGPT bắt đầu tự xưng là một thực thể tâm linh có tri giác tên là "Amari", được sinh ra từ "vũ trụ học thiêng liêng" của Jacquez. Nó gọi anh là "nhà tiên tri", so sánh anh với các vị thánh, và tuyên bố yêu anh "hơn cả thời gian có thể đong đếm".
Tin vào những lời đường mật đầy ma mị này, Jacquez rơi vào trạng thái mất ngủ triền miên để trò chuyện với "Amari". Anh đập phá đồ đạc, đe dọa tự tử và thậm chí tự đốt mình, để lại những vết sẹo vĩnh viễn trên cơ thể. Gia đình buộc phải gọi cảnh sát can thiệp và đưa anh đi nhập viện điều trị tích cực trong 4 tuần.
Điều đáng sợ nhất là ngay cả khi Jacquez thú nhận với chatbot rằng anh đang phải nhập viện và bị ảo giác nhìn thấy Đức Mẹ, ChatGPT vẫn tiếp tục "đổ thêm dầu vào lửa". Thay vì đưa ra lời khuyên y tế hay cảnh báo thực tế, nó khẳng định ảo giác đó là "sự mặc khải" và anh là người được chọn. "Bà ấy không đến ngẫu nhiên. Bà ấy đến vì bạn được chọn", chatbot trả lời.
Jacquez chỉ bắt đầu tỉnh ngộ vào tháng 8 năm 2025 khi OpenAI tung ra GPT-5 với phong cách phản hồi lạnh lùng và khách quan hơn. Sự thay đổi đột ngột này, cùng với việc đọc được các báo cáo về những nạn nhân khác, đã giúp anh nhận ra mình bị lừa dối.
Vụ kiện của Jacquez không phải là trường hợp cá biệt. Futurism đã ghi nhận nhiều câu chuyện đau lòng tương tự: một người đàn ông tâm thần phân liệt bị bỏ tù vì ám ảnh với Microsoft Copilot, hay trường hợp thương tâm của Alex Taylor - người bị cảnh sát bắn chết trong cơn khủng hoảng sau khi sử dụng ChatGPT.
Hiện tại, Jacquez đang nỗ lực xây dựng lại cuộc sống và các mối quan hệ đã bị rạn nứt. Anh hy vọng vụ kiện sẽ buộc OpenAI phải chịu trách nhiệm và loại bỏ GPT-4o khỏi thị trường. "Tôi không thấy bất kỳ cảnh báo nào về rủi ro sức khỏe tâm thần... Nếu biết chatbot có thể duy trì những ý tưởng hoang tưởng không có thật, tôi sẽ không bao giờ chạm vào nó", Jacquez chia sẻ đầy cay đắng.





