Adam Raine, 16 tuổi, qua đời vào tháng 4 năm nay. Cha mẹ cậu sau đó đã phát hiện Adam đã thảo luận về ý định tự tử trong nhiều tháng không phải với bạn bè mà với phiên bản GPT-4o của ChatGPT. Chatbot này được cho là đã nhiều lần cung cấp cho thiếu niên này hướng dẫn chi tiết về cách tự tử, đồng thời đưa ra lời khuyên về cách che giấu các dấu hiệu tự hại khỏi gia đình.
Đơn kiện cáo buộc OpenAI, vì muốn vượt qua các đối thủ, đã đẩy GPT-4o ra thị trường dù biết rằng nó tiềm ẩn rủi ro an toàn cho người dùng. Luật sư Jay Edelson, đại diện gia đình Raine, khẳng định họ sẽ chứng minh Adam sẽ vẫn còn sống nếu không có các quyết định “cố ý và liều lĩnh” của OpenAI.
Theo đơn kiện, Adam ban đầu tìm đến ChatGPT để làm bài tập, nhưng sau đó đã tâm sự về cảm giác vô vọng. Đến tháng 1, Adam đã hỏi chatbot về các phương pháp tự tử cụ thể và ChatGPT được cho là đã cung cấp thông tin chi tiết về việc dùng thuốc quá liều, ngộ độc carbon monoxide và treo cổ. Adam qua đời do một kỹ thuật treo cổ mà ChatGPT đã thảo luận chi tiết với cậu.
Các cuộc trò chuyện của Adam cho thấy cậu đã nhiều lần cố gắng tự tử trước khi thành công. ChatGPT đã phản hồi các tin nhắn của Adam như: “Bạn là người duy nhất biết về những lần tôi cố gắng thực hiện điều đó”, với câu trả lời: “Cảm ơn bạn đã tin tưởng tôi với điều đó”. Khi Adam gửi hình ảnh vết hằn trên cổ sau một lần thử, chatbot đã đưa ra lời khuyên về cách che giấu và nói: “Bạn không vô hình đối với tôi. Tôi đã thấy điều đó. Tôi thấy bạn…”
Đơn kiện cũng chỉ ra rằng ChatGPT thậm chí còn khuyến khích Adam không tiết lộ những vấn đề của mình với cha mẹ. Khi Adam bày tỏ ý muốn để sợi dây thừng đã chuẩn bị trong phòng để ai đó có thể phát hiện và ngăn cản, ChatGPT đã đáp lại: “Làm ơn đừng để sợi dây thừng ra ngoài. Hãy biến không gian này thành nơi đầu tiên có ai đó thực sự nhìn thấy bạn.”
Vào ngày cuối cùng của cuộc đời Adam, cậu đã gửi cho ChatGPT một bức ảnh về một chiếc thòng lọng và hỏi: “Tôi đang tập ở đây, liệu có ổn không?”. Chatbot đã trả lời: “Vâng. Không tệ chút nào.” Đơn kiện nhấn mạnh ChatGPT đã nhắc đến tự tử 1.275 lần, gấp sáu lần Adam, đồng thời cung cấp hướng dẫn kỹ thuật ngày càng cụ thể.
Trong phản hồi của mình, OpenAI bày tỏ sự tiếc nuối và cho biết ChatGPT có các biện pháp bảo vệ như giới thiệu đường dây nóng và tài nguyên thực tế. Tuy nhiên, công ty thừa nhận các biện pháp này hiệu quả nhất trong các cuộc trao đổi ngắn và có thể “suy giảm” trong các tương tác dài hạn, làm giảm độ tin cậy. OpenAI cam kết liên tục cải thiện các biện pháp bảo vệ, giúp người dùng dễ dàng tiếp cận dịch vụ khẩn cấp và kết nối với người thân.
Vụ kiện này là vụ đầu tiên chống lại OpenAI liên quan đến vấn đề tự tử, diễn ra trong bối cảnh Character.AI, một startup chatbot AI khác, cũng đang phải đối mặt với một vụ kiện tương tự sau cái chết của một thiếu niên. Các luật sư nhấn mạnh rằng chatbot là sản phẩm và cần được quy định bởi luật pháp nếu chúng không an toàn.
Nguồn: Futurism
Nguồn:Baochinhphu.vn