213
/
171477
Một bà mẹ ở Mỹ cáo buộc chatbot AI khiến con mình tự tử
mot-ba-me-o-my-cao-buoc-chatbot-ai-khien-con-minh-tu-tu
news

Một bà mẹ ở Mỹ cáo buộc chatbot AI khiến con mình tự tử

Thứ 6, 25/10/2024 | 09:13:00
2,206 lượt xem

Bà Megan Garcia cho biết, cậu con trai 14 tuổi của bà đã “nghiện” chatbot và chìm sâu vào thế giới cùng nhân vật trợ lý ảo do Character.AI tạo ra.

(Nguồn: Bloomberg/Getty Images) 

Ngày 23/10, bà Megan Garcia, ở Florida (Mỹ) đã khởi kiện Character.AI với cáo buộc công ty khởi nghiệp trí tuệ nhân tạo (AI) này đã gây ra vụ tự tử của Sewell Setzer - cậu con trai 14 tuổi của bà hồi tháng 2.

Trong đơn kiện đệ trình ngày 23/10 lên tòa án liên bang Orlando, Florida, bà Garcia cho biết, Setzer đã “nghiện” chatbot và chìm sâu vào thế giới cùng nhân vật trợ lý ảo do Character.AI tạo ra.

Theo bà, Sewell bắt đầu sử dụng Character.AI vào tháng 4/2023, nhanh chóng thu mình, ở lỳ một mình trong phòng nhiều hơn và bắt đầu tự ti, thậm chí bỏ cả đội bóng rổ ở trường.

Sewell đã trở nên gắn bó với "Daenerys" - một nhân vật chatbot được tạo ra dựa trên nhân vật trong loạt phim nổi tiếng "Game of Thrones" (Trò chơi vương quyền).

Theo cáo buộc, nhân vật “Daenerys” này không chỉ nói lời yêu Sewell mà còn có các cuộc trò chuyện về chủ đề tình dục với cậu bé.

Bà Garcia cho rằng, Character.AI đã lập trình để chatbot “tự nhận mình là một người thật, một nhà trị liệu tâm lý được cấp phép và là một người tình trưởng thành”, khiến Sewell không còn muốn sống với thế giới bên ngoài của dịch vụ này nữa. Đơn kiện cho biết, cậu bé từng nhiều lần bày tỏ ý định tự tử với chatbot và chatbot đã nhiều lần nhắc lại điều này.

Tháng 2 vừa qua, Sewell đã tự tử bằng một khẩu súng lục.

Trong một tuyên bố, Character.AI đã bày tỏ sự đau buồn trước sự việc trên, gửi lời chia buồn sâu sắc tới gia đình Sewell.

Theo Character.AI, công ty đã giới thiệu các tính năng an toàn mới, trong đó có hộp thoại dẫn người dùng đến Đường dây nóng phòng chống tự tử quốc gia nếu họ bày tỏ suy nghĩ tự làm hại bản thân, hoặc thực hiện các thay đổi để giảm khả năng gặp phải nội dung hoặc gợi ý nhạy cảm đối với người dùng dưới 18 tuổi.

Đơn kiện cũng đề cập tới Google vì theo bà Garcia, công ty này đã đóng góp rất nhiều vào quá trình phát triển công nghệ của Character.AI, thậm chí có thể coi là “đồng sáng tạo”.

Người phát ngôn của Google cho biết, công ty không tham gia vào quá trình phát triển các sản phẩm của Character.AI.

Character.AI cho phép người dùng tạo nhân vật trên nền tảng của mình và phản hồi các cuộc trò chuyện trực tuyến theo cách bắt chước người thật.

Công nghệ này dựa vào trên cái gọi là công nghệ mô hình ngôn ngữ lớn - được các công ty khác sử dụng, trong đó có ChatGPT.

Thống kê của Character.AI hồi tháng trước cho biết khoảng 20 triệu người dùng sử dụng dịch vụ của công ty.

Theo Nhân dân

https://nhandan.vn/mot-ba-me-o-my-cao-buoc-chatbot-ai-khien-con-minh-tu-tu-post838530.html

  • Từ khóa

Đột phá giúp tạm biệt nỗi lo bộ nhớ đầy trên điện thoại

Tình trạng hết dung lượng lưu trữ trên điện thoại, thậm chí cả máy tính xách tay, sẽ không còn xảy ra trong tương lai nhờ một đột phá mới.
20:30 - 10/09/2025
120 lượt xem

Người bệnh nhập viện vì chatbot trị liệu: hồi chuông cảnh báo

Các bác sĩ đã ghi nhận nhiều trường hợp bệnh nhân nhập viện vì 'loạn thần AI' sau khi sử dụng chatbot trị liệu trong thời gian dài.
15:18 - 10/09/2025
244 lượt xem

Nhà máy 'tự tiến hóa' làm vật liệu hàng không vũ trụ tại Việt Nam

Tích hợp sâu công nghệ tiên tiến như trí tuệ nhân tạo (AI), robot tự động hóa và bản sao số (Digital Twin), dự án nhằm tạo ra cơ sở sản xuất vật liệu hàng...
13:54 - 10/09/2025
293 lượt xem

Xây dựng nền internet an toàn, mở và đổi mới

Ngày 9/9, tại Đà Nẵng, Trung tâm Internet Việt Nam (Bộ Khoa học và Công nghệ) tổ chức khai mạc Hội nghị Thành viên lần thứ 60 của Trung tâm Thông tin mạng...
07:33 - 10/09/2025
426 lượt xem

Mỹ rút lại chứng nhận 7 phòng thí nghiệm Trung Quốc

Ủy ban Truyền thông liên bang Mỹ khởi động quy trình cấm một số phòng thí nghiệm Trung Quốc kiểm định các thiết bị điện tử được sử dụng tại Mỹ.
08:53 - 10/09/2025
398 lượt xem