213
/
145806
Rủi ro bảo mật khi sử dụng ChatGPT
rui-ro-bao-mat-khi-su-dung-chatgpt
news

Rủi ro bảo mật khi sử dụng ChatGPT

Chủ nhật, 16/04/2023 | 09:28:31
2,129 lượt xem

Trong bối cảnh các "ông lớn" công nghệ chạy đua phát triển trí tuệ nhân tạo (AI), các chatbot như ChatGPT làm dấy lên mối lo ngại về quyền riêng tư dữ liệu giữa các công ty và cơ quan quản lý.

Ngân hàng lớn nhất nước Mỹ JPMorgan Chase, Amazon và công ty công nghệ Accenture đều hạn chế nhân viên sử dụng ChatGPT vì lo ngại về bảo mật dữ liệu.

Theo CNN, nỗi lo của những doanh nghiệp này hoàn toàn có cơ sở. Vào ngày 20.3, chatbot của OpenAI đã xảy ra lỗi và làm lộ dữ liệu người dùng. Dù lỗi nhanh chóng được khắc phục, công ty tiết lộ sự cố này đã ảnh hưởng đến 1,2% lượng người dùng ChatGPT Plus. Thông tin bị rò rỉ gồm họ tên, địa chỉ email, địa chỉ thanh toán, bốn chữ số cuối của số thẻ tín dụng và ngày hết hạn của thẻ.

Ngày 31.3, cơ quan bảo vệ dữ liệu của Ý (Garante) đã ban hành lệnh cấm tạm thời ChatGPT với lý do lo ngại về quyền riêng tư sau khi OpenAI tiết lộ lỗ hổng này.

Mark McCreary - Đồng chủ tịch về bảo mật dữ liệu và quyền riêng tư tại công ty luật Fox Rothschild LLP - chia sẻ với CNN rằng những lo ngại về bảo mật xoay quanh ChatGPT không hề bị phóng đại. Chatbot AI được ông ví von như "một chiếc hộp đen".

ChatGPT được OpenAI ra mắt vào tháng 11.2022 và nhanh chóng thu hút được sự chú ý nhờ khả năng viết bài tiểu luận, sáng tác truyện hay lời nhạc bằng cách đưa ra câu lệnh (prompt). Các "gã khổng lồ" công nghệ như Google và Microsoft cũng tung ra các công cụ AI hoạt động tương tự, được hỗ trợ bởi các mô hình ngôn ngữ lớn được đào tạo dựa trên kho dữ liệu trực tuyến khổng lồ.

chatgpt.jpg

Sau động thái của Ý, Đức cũng đang cân nhắc cấm ChatGPT

Khi người dùng nhập thông tin vào các công cụ này, họ không biết sau đó nó sẽ được dùng như thế nào, ông McCreay nói thêm. Điều này rất đáng lo đối với các công ty khi ngày càng có nhiều nhân viên sử dụng các công cụ để trợ giúp viết email công việc hay ghi chú cho các cuộc họp, dẫn đến khả năng bị lộ bí mật thương mại ngày một lớn. 

Steve Mills - Giám đốc đạo đức AI tại Boston Consulting Group (BCG) - nói các công ty lo ngại về việc nhân viên vô tình tiết lộ thông tin nhạy cảm. Nếu dữ liệu mà mọi người nhập vào đang được sử dụng để đào tạo công cụ AI này, thì họ đã mất quyền kiểm soát dữ liệu vào tay người khác.

Theo chính sách bảo mật của OpenAI, công ty có thể thu thập tất cả các thông tin cá nhân và dữ liệu của người sử dụng dịch vụ để cải thiện mô hình AI. Họ có thể sử dụng những thông tin này để cải thiện hoặc phân tích dịch vụ của mình, tiến hành nghiên cứu, giao tiếp với người dùng và phát triển chương trình, dịch vụ mới.

Chính sách bảo mật có nêu rõ OpenAI có thể cung cấp thông tin cá nhân cho bên thứ ba mà không cần thông báo đến người dùng, trừ khi pháp luật yêu cầu. OpenAI cũng có tài liệu Điều khoản dịch vụ riêng, tuy nhiên công ty đặt phần lớn trách nhiệm lên người dùng để thực hiện các biện pháp thích hợp khi tương tác với các công cụ AI.

Chủ sở hữu của ChatGPT đã đăng bài trên blog về cách tiếp cận AI an toàn. Công ty nhấn mạnh không sử dụng dữ liệu để bán dịch vụ, quảng cáo hoặc xây dựng hồ sơ của người dùng, OpenAI sử dụng dữ liệu để làm cho các mô hình hữu ích hơn. Ví dụ như cuộc hội thoại của người dùng sẽ được sử dụng để đào tạo ChatGPT.

Chính sách bảo mật của ChatGPT bị đánh giá còn khá mơ hồ

Chính sách bảo mật của Google, công ty đang phát triển công cụ Bard AI, có những điều khoản bổ sung cho người dùng AI. Công ty sẽ chọn một phần nhỏ của cuộc hội thoại và sử dụng công cụ tự động để xóa đi những thông tin nhận dạng cá nhân. Cách này vừa giúp cải thiện Bard, đồng thời bảo vệ quyền riêng tư của người dùng.

Những cuộc hội thoại mẫu sẽ được những chuyên gia đào tạo xem xét và lưu giữ trong tối đa 3 năm, tách biệt với tài khoản Google của người dùng. Google cũng nhắc nhở người dùng không đưa thông tin cá nhân của bản thân hoặc người khác vào các cuộc trò chuyện trên Bard AI. "Gã khổng lồ công nghệ" nhấn mạnh không dùng những đoạn hội thoại này cho mục đích quảng cáo và sẽ thông báo về thay đổi trong tương lai.

Bard AI cho phép người dùng lựa chọn không lưu các đoạn hội thoại vào tài khoản Google, cũng như xem lại hay xóa cuộc hội thoại thông qua liên kết. Bên cạnh đó, công ty có các biện pháp bảo vệ được thiết kế để ngăn Bard đưa thông tin cá nhân vào các phản hồi.

Steve Mills cho rằng đôi khi người dùng và nhà phát triển chỉ phát hiện những rủi ro bảo mật ẩn giấu trong các công nghệ mới khi đã quá muộn. Ví dụ như chức năng tự động điền (autocomplete) có thể vô tình làm lộ số an sinh xã hội của người dùng.

Người dùng không nên đưa bất cứ thứ gì mà bản thân không muốn chia sẻ cho người khác vào các công cụ này, ông Mills nhận định.

Theo Thanh niên

https://thanhnien.vn/rui-ro-bao-mat-khi-su-dung-chatgpt-185230412163629524.htm

  • Từ khóa

Samsung mỉa mai loạt sản phẩm mới của Apple

Sau khi Apple ra mắt dòng iPhone 17 mới tại sự kiện Awe Dropping, Samsung đã nhanh chóng đăng bài chế nhạo đối thủ trên mạng xã hội.
11:09 - 11/09/2025
66 lượt xem

Bộ Y tế đề xuất một đầu số cấp cứu quốc gia thay cho 113, 114, 115

Cục Quản lý khám chữa bệnh (Bộ Y tế) vừa hoàn thành dự thảo đề án phát triển hệ thống cấp cứu ngoại viện giai đoạn 2025-2030. Đây là lần đầu tiên đề án về...
08:31 - 11/09/2025
131 lượt xem

AI giúp 'giảm gánh nặng' cho ngành vận chuyển Việt mùa cuối năm

Các giải pháp trí tuệ nhân tạo (AI) góp phần đáng kể trong việc điều phối, sắp xếp cũng như dự đoán thị trường, giúp doanh nghiệp logistics vận hành hiệu...
07:20 - 11/09/2025
159 lượt xem

Đột phá giúp tạm biệt nỗi lo bộ nhớ đầy trên điện thoại

Tình trạng hết dung lượng lưu trữ trên điện thoại, thậm chí cả máy tính xách tay, sẽ không còn xảy ra trong tương lai nhờ một đột phá mới.
20:30 - 10/09/2025
436 lượt xem

Người bệnh nhập viện vì chatbot trị liệu: hồi chuông cảnh báo

Các bác sĩ đã ghi nhận nhiều trường hợp bệnh nhân nhập viện vì 'loạn thần AI' sau khi sử dụng chatbot trị liệu trong thời gian dài.
15:18 - 10/09/2025
561 lượt xem