3 rủi ro và mối quan tâm về quyền riêng tư của Chatbot bạn nên biết

3 rủi ro và mối quan tâm về quyền riêng tư của Chatbot bạn nên biết
Những độc giả như bạn giúp ủng hộ MUO. Khi bạn mua hàng bằng các liên kết trên trang web của chúng tôi, chúng tôi có thể kiếm được hoa hồng liên kết. Đọc thêm.   Một ổ khóa với các phím bàn phím nằm rải rác xung quanh

Chatbot đã xuất hiện được nhiều năm, nhưng sự nổi lên của các mô hình ngôn ngữ lớn, chẳng hạn như ChatGPT và Google Bard, đã mang lại cho ngành công nghiệp chatbot một luồng sinh khí mới.





Hàng triệu người hiện đang sử dụng chatbot AI trên toàn thế giới, nhưng có một số rủi ro và mối lo ngại quan trọng về quyền riêng tư cần lưu ý nếu bạn muốn dùng thử một trong những công cụ này.





1. Thu thập dữ liệu

Hầu hết mọi người không sử dụng chatbot chỉ để chào hỏi. Các chatbot hiện đại được thiết kế để xử lý và trả lời các câu hỏi và yêu cầu phức tạp, người dùng thường đưa nhiều thông tin vào lời nhắc của họ. Ngay cả khi bạn chỉ hỏi một câu hỏi đơn giản, bạn cũng không thực sự muốn nó vượt ra ngoài cuộc trò chuyện.





Dựa theo Phần hỗ trợ của OpenAI , bạn có thể xóa nhật ký trò chuyện ChatGPT bất cứ khi nào bạn muốn và những nhật ký đó sau đó sẽ bị xóa vĩnh viễn khỏi hệ thống của OpenAI sau 30 ngày. Tuy nhiên, công ty sẽ giữ lại và xem xét một số nhật ký trò chuyện nhất định nếu chúng bị gắn cờ vì nội dung có hại hoặc không phù hợp.

Một chatbot AI phổ biến khác, Claude, cũng theo dõi các cuộc trò chuyện trước đó của bạn. Trung tâm hỗ trợ Anthropic tuyên bố rằng Claude theo dõi 'lời nhắc và kết quả đầu ra của bạn trong sản phẩm để cung cấp cho bạn trải nghiệm sản phẩm nhất quán theo thời gian theo sự kiểm soát của bạn.' Bạn có thể xóa các cuộc trò chuyện của mình với Claude để nó quên những gì bạn đang nói, nhưng điều này không có nghĩa là Anthropic sẽ xóa ngay nhật ký của bạn khỏi hệ thống của nó.



Tất nhiên, điều này đặt ra câu hỏi: liệu dữ liệu của tôi có được lưu giữ hay không? ChatGPT hoặc các chatbot khác có sử dụng dữ liệu của tôi không?

Nhưng mối lo ngại không dừng lại ở đây.





ChatGPT học như thế nào?

Để cung cấp thông tin, các mô hình ngôn ngữ lớn được đào tạo với lượng dữ liệu khổng lồ. Dựa theo Trọng tâm khoa học , riêng ChatGPT-4 đã được cung cấp 300 tỷ từ thông tin trong thời gian đào tạo. Điều này không được lấy trực tiếp từ một số bộ bách khoa toàn thư. Thay vào đó, các nhà phát triển chatbot sử dụng lượng lớn thông tin từ internet để đào tạo mô hình của họ. Điều này có thể bao gồm dữ liệu từ sách, phim, bài viết, mục Wikipedia, bài đăng trên blog, nhận xét và thậm chí cả các trang web đánh giá.

Hãy nhớ rằng, tùy thuộc vào chính sách quyền riêng tư của nhà phát triển chatbot, một số nguồn nói trên có thể không được sử dụng trong quá trình đào tạo.





Nhiều người đã chỉ trích ChatGPT, cho rằng đó là một cơn ác mộng về mặt quyền riêng tư. ChatGPT không thể tin cậy được . Vì vậy, tại sao lại như vậy?

Đây là nơi mọi thứ có được một chút mờ. Nếu bạn hỏi trực tiếp ChatGPT-3.5 xem liệu nó có quyền truy cập vào các bài đánh giá sản phẩm hoặc nhận xét bài viết hay không, bạn sẽ nhận được câu trả lời chắc chắn là tiêu cực. Như bạn có thể thấy trong ảnh chụp màn hình bên dưới, GPT-3.5 cho biết rằng nó không được cấp quyền truy cập vào nhận xét bài viết của người dùng hoặc đánh giá sản phẩm trong quá trình đào tạo.

  ảnh chụp màn hình cuộc trò chuyện chatgpt-3.5

Thay vào đó, nó được đào tạo bằng cách sử dụng 'nhiều loại văn bản từ internet, bao gồm các trang web, sách, bài báo và tài liệu bằng văn bản có sẵn công khai khác cho đến tháng 9 năm 2021.'

Nhưng liệu trường hợp này có giống với GPT-4 không?

Khi hỏi GPT-4, chúng tôi được thông báo rằng 'OpenAI không sử dụng các đánh giá, dữ liệu cá nhân hoặc nhận xét bài viết cụ thể của người dùng' trong thời gian đào tạo của chatbot. Ngoài ra, GPT-4 cho chúng tôi biết rằng phản hồi của nó được tạo từ 'các mẫu trong dữ liệu [nó] đã được đào tạo, chủ yếu bao gồm sách, bài báo và văn bản khác từ Internet'.

Khi chúng tôi tìm hiểu sâu hơn, GPT-4 tuyên bố rằng một số nội dung mạng xã hội nhất định thực sự có thể được đưa vào dữ liệu đào tạo của nó nhưng những người sáng tạo sẽ luôn ẩn danh. GPT-4 tuyên bố cụ thể rằng 'Ngay cả khi nội dung từ các nền tảng như Reddit là một phần của dữ liệu đào tạo, [nó không] có quyền truy cập vào các nhận xét, bài đăng cụ thể hoặc bất kỳ dữ liệu nào có thể được liên kết lại với một người dùng cá nhân.'

Một phần đáng chú ý khác trong phản hồi của GPT-4 như sau 'OpenAI chưa liệt kê rõ ràng mọi nguồn dữ liệu được sử dụng.' Tất nhiên, sẽ rất khó để OpenAI liệt kê các nguồn có giá trị 300 tỷ từ, nhưng điều này sẽ tạo ra không gian cho sự suy đoán.

trong một Bài viết của Ars Technica , người ta tuyên bố rằng ChatGPT thu thập 'thông tin cá nhân có được mà không có sự đồng ý.' Trong cùng một bài viết, tính toàn vẹn theo ngữ cảnh đã được đề cập, một khái niệm đề cập đến việc chỉ sử dụng thông tin của ai đó trong bối cảnh thông tin đó được sử dụng ban đầu. Nếu ChatGPT vi phạm tính toàn vẹn theo ngữ cảnh này, dữ liệu của mọi người có thể gặp rủi ro.

Một điểm đáng quan tâm khác ở đây là sự tuân thủ của OpenAI với Quy định chung về bảo vệ dữ liệu (GDPR) . Đây là quy định được Liên minh Châu Âu thực thi nhằm bảo vệ dữ liệu của công dân. Nhiều quốc gia châu Âu, bao gồm Ý và Ba Lan, đã tiến hành điều tra ChatGPT do lo ngại xung quanh việc tuân thủ GDPR của nước này. Trong một thời gian ngắn, ChatGPT thậm chí còn bị cấm ở Ý do lo ngại về quyền riêng tư.

OpenAI trước đây từng đe dọa sẽ rút khỏi EU do các quy định về AI đã được lên kế hoạch, nhưng điều này đã được rút lại.

ChatGPT có thể là chatbot AI lớn nhất hiện nay, nhưng vấn đề về quyền riêng tư của chatbot không bắt đầu và kết thúc với nhà cung cấp này. Nếu bạn đang sử dụng một chatbot mờ ám với chính sách quyền riêng tư mờ nhạt, các cuộc trò chuyện của bạn có thể bị lạm dụng hoặc thông tin có độ nhạy cảm cao có thể được sử dụng trong dữ liệu đào tạo của nó.

2. Trộm cắp dữ liệu

Giống như bất kỳ công cụ hoặc nền tảng trực tuyến nào, chatbot dễ bị tấn công bởi tội phạm mạng. Ngay cả khi một chatbot đã làm tất cả những gì có thể để bảo vệ người dùng và dữ liệu của họ, vẫn luôn có khả năng một hacker hiểu biết sẽ tìm cách xâm nhập vào hệ thống nội bộ của nó.

Nếu một dịch vụ chatbot nhất định đang lưu trữ thông tin nhạy cảm của bạn, chẳng hạn như chi tiết thanh toán cho gói đăng ký trả phí, dữ liệu liên hệ hoặc thông tin tương tự, thì thông tin này có thể bị đánh cắp và khai thác nếu một cuộc tấn công mạng xảy ra.

Điều này đặc biệt đúng nếu bạn đang sử dụng một chatbot kém an toàn hơn mà nhà phát triển chưa đầu tư vào việc bảo vệ an ninh đầy đủ. Không chỉ hệ thống nội bộ của công ty có thể bị tấn công mà tài khoản của chính bạn cũng có nguy cơ bị xâm phạm nếu không có cảnh báo đăng nhập hoặc lớp xác thực.

Giờ đây, khi các chatbot AI rất phổ biến, tội phạm mạng đã tự nhiên đổ xô sử dụng ngành này để lừa đảo. Các trang web và plugin ChatGPT giả mạo đã trở thành một vấn đề lớn kể từ khi chatbot của OpenAI trở nên phổ biến vào cuối năm 2022, khiến mọi người rơi vào bẫy lừa đảo và cung cấp thông tin cá nhân dưới chiêu bài hợp pháp và đáng tin cậy.

Vào tháng 3 năm 2023, MUO đã báo cáo về một Tiện ích mở rộng ChatGPT Chrome giả mạo đánh cắp thông tin đăng nhập Facebook . Plugin có thể khai thác cửa sau của Facebook để hack các tài khoản cao cấp và đánh cắp cookie của người dùng. Đây chỉ là một ví dụ trong số nhiều dịch vụ ChatGPT giả mạo được thiết kế để lừa đảo những nạn nhân không quen biết.

3. Nhiễm phần mềm độc hại

Nếu bạn đang sử dụng một chatbot mờ ám mà không nhận ra, bạn có thể thấy chatbot cung cấp cho bạn các liên kết đến các trang web độc hại. Có thể chatbot đã cảnh báo bạn về một quà tặng hấp dẫn hoặc cung cấp nguồn cho một trong các tuyên bố của nó. Nếu người điều hành dịch vụ có ý định bất hợp pháp, toàn bộ mục đích của nền tảng có thể là phát tán phần mềm độc hại và lừa đảo thông qua các liên kết độc hại.

Ngoài ra, tin tặc có thể xâm phạm dịch vụ chatbot hợp pháp và sử dụng dịch vụ này để phát tán phần mềm độc hại. Nếu chatbot này thực sự là con người thì hàng nghìn, thậm chí hàng triệu người dùng sẽ tiếp xúc với phần mềm độc hại này. Ứng dụng ChatGPT giả thậm chí đã có mặt trên Apple App Store , vì vậy tốt nhất bạn nên đi lại cẩn thận.

Nói chung, bạn không bao giờ nên nhấp vào bất kỳ liên kết nào mà chatbot cung cấp trước đó. chạy nó thông qua một trang web kiểm tra liên kết . Điều này có vẻ khó chịu nhưng tốt nhất bạn nên đảm bảo rằng trang web mà bạn được dẫn tới không có thiết kế độc hại.

trò chơi mà bạn có thể trò chuyện với mọi người

Ngoài ra, bạn không bao giờ nên cài đặt bất kỳ plugin và tiện ích mở rộng chatbot nào mà không xác minh tính hợp pháp của chúng trước. Thực hiện một nghiên cứu nhỏ xung quanh ứng dụng để xem liệu nó có được đánh giá tốt hay không, đồng thời tìm kiếm nhà phát triển ứng dụng để xem bạn có tìm thấy điều gì mờ ám hay không.

Chatbots không tránh khỏi các vấn đề về quyền riêng tư

Giống như hầu hết các công cụ trực tuyến hiện nay, chatbot đã nhiều lần bị chỉ trích vì những cạm bẫy về bảo mật và quyền riêng tư có thể xảy ra. Cho dù đó là nhà cung cấp chatbot đang cắt giảm vấn đề an toàn của người dùng hay rủi ro liên tục về các cuộc tấn công mạng và lừa đảo, điều quan trọng là bạn phải biết dịch vụ chatbot của mình đang thu thập thông tin gì về bạn và liệu dịch vụ đó có áp dụng các biện pháp bảo mật thích hợp hay không.