7 lần học máy đã sai

7 lần học máy đã sai
Độc giả như bạn giúp hỗ trợ MUO. Khi bạn mua hàng bằng các liên kết trên trang web của chúng tôi, chúng tôi có thể kiếm được hoa hồng liên kết. Đọc thêm.

Học máy là một cách tuyệt vời để tạo ra trí tuệ nhân tạo mạnh mẽ và thích ứng với dữ liệu đào tạo của nó. Nhưng đôi khi, dữ liệu đó có thể gây ra sự cố. Những lần khác, cách mọi người sử dụng các công cụ AI này là một vấn đề.





Dưới đây là một số sự cố nghiêm trọng trong đó máy học dẫn đến kết quả có vấn đề.





LÀM VIDEO TRONG NGÀY CUỘN ĐỂ TIẾP TỤC VỚI NỘI DUNG

1. Rủi ro trong kết quả tìm kiếm hình ảnh của Google

  google-hình ảnh-tìm kiếm-kết quả-tranh cãi

Tìm kiếm của Google đã giúp việc điều hướng trên web trở nên dễ dàng hơn rất nhiều. Thuật toán của công cụ xem xét nhiều thứ khác nhau khi đưa ra kết quả. Nhưng thuật toán cũng học hỏi từ lưu lượng truy cập của người dùng, điều này có thể gây ra các vấn đề về chất lượng kết quả tìm kiếm.





Không nơi nào điều này rõ ràng hơn trong kết quả hình ảnh. Vì các trang nhận được lưu lượng truy cập cao có nhiều khả năng hiển thị hình ảnh của chúng hơn, nên những câu chuyện thu hút số lượng người dùng cao, bao gồm cả nội dung dụ nhấp chuột, có thể được ưu tiên hơn.

Ví dụ: kết quả tìm kiếm hình ảnh cho 'các trại tị nạn ở Nam Phi' đã gây ra tranh cãi khi người ta phát hiện ra rằng nó chủ yếu là người Nam Phi da trắng. Điều này bất chấp số liệu thống kê cho thấy phần lớn những người sống trong nhà ở không chính thức là người Nam Phi da đen.



Các yếu tố được sử dụng trong thuật toán của Google cũng có nghĩa là người dùng internet có thể thao túng kết quả. Ví dụ: một chiến dịch của người dùng đã ảnh hưởng đến kết quả Tìm kiếm Hình ảnh của Google đến mức tìm kiếm cụm từ 'thằng ngốc' đã hiển thị hình ảnh của cựu Tổng thống Hoa Kỳ Donald Trump trong một khoảng thời gian.

2. Microsoft Bot Tay biến thành Đức quốc xã





Các chatbot được hỗ trợ bởi AI cực kỳ phổ biến, đặc biệt là những chatbot được hỗ trợ bởi các mô hình ngôn ngữ lớn như ChatGPT. ChatGPT có một số vấn đề , nhưng những người tạo ra nó cũng đã học được từ những sai lầm của các công ty khác.

Một trong những sự cố nghiêm trọng nhất của chatbot không thành công là việc Microsoft cố gắng tung ra chatbot Tay.





Tay đã bắt chước các mẫu ngôn ngữ của một cô gái tuổi teen và học hỏi thông qua tương tác của cô ấy với những người dùng Twitter khác. Tuy nhiên, cô ấy đã trở thành một trong những sai lầm khét tiếng nhất về AI khi bắt đầu chia sẻ những tuyên bố của Đức Quốc xã và những lời chỉ trích chủng tộc. Hóa ra những kẻ lừa đảo đã sử dụng máy học của AI để chống lại nó, khiến nó tràn ngập các tương tác chứa đầy sự cố chấp.

Không lâu sau, Microsoft đã loại bỏ Tay ngoại tuyến vĩnh viễn.

3. Các vấn đề về nhận dạng khuôn mặt AI

AI nhận dạng khuôn mặt thường xuất hiện trên các tiêu đề vì tất cả các lý do sai lầm, chẳng hạn như các câu chuyện về nhận dạng khuôn mặt và các mối quan tâm về quyền riêng tư. Nhưng AI này có một lịch sử có vấn đề khi cố gắng nhận ra người da màu.

Vào năm 2015, người dùng phát hiện ra rằng Google Photos đang phân loại một số người da đen là khỉ đột. Năm 2018, nghiên cứu của ACLU cho thấy phần mềm nhận dạng khuôn mặt Rekognition của Amazon đã xác định 28 thành viên của Quốc hội Hoa Kỳ là nghi phạm của cảnh sát, với kết quả dương tính giả ảnh hưởng không tương xứng đến người da màu.

Một sự cố khác liên quan đến phần mềm Face ID của Apple xác định sai hai phụ nữ Trung Quốc khác nhau là cùng một người. Nhờ đó, đồng nghiệp của chủ sở hữu iPhone X đã có thể mở khóa điện thoại.

Trong một ví dụ về những hậu quả nghiêm trọng, AI nhận dạng khuôn mặt đã dẫn đến việc bắt giữ oan sai một số người. có dây báo cáo về ba trường hợp như vậy.

phải làm gì với iPod touch cũ

Trong khi đó, nhà khoa học máy tính Joy Buolamwini nhớ lại việc thường xuyên phải đeo mặt nạ trắng khi làm việc với công nghệ nhận dạng khuôn mặt để phần mềm nhận ra cô. Để giải quyết những vấn đề như thế này, Buolamwini và các chuyên gia CNTT khác đang chú ý đến vấn đề thiên vị AI và nhu cầu về các bộ dữ liệu toàn diện hơn.

4. Deepfakes được sử dụng để chơi khăm

Trong khi mọi người từ lâu đã sử dụng Photoshop để tạo ra những hình ảnh lừa bịp, thì máy học đã đưa điều này lên một tầm cao mới. Deepfakes sử dụng AI học sâu để tạo hình ảnh và video giả . Phần mềm như FaceApp cho phép bạn hoán đổi khuôn mặt đối tượng từ video này sang video khác.

Nhưng nhiều người khai thác phần mềm này cho nhiều mục đích xấu khác nhau, bao gồm ghép khuôn mặt người nổi tiếng vào video người lớn hoặc tạo video lừa bịp. Trong khi đó, người dùng internet đã giúp cải thiện công nghệ để ngày càng khó phân biệt video thật với video giả. Do đó, điều này làm cho loại AI này trở nên rất mạnh trong việc truyền bá tin tức giả mạo và trò lừa bịp.

bạn có thể có facebook Messenger mà không có facebook

Để thể hiện sức mạnh của công nghệ, đạo diễn Jordan Peele và Giám đốc điều hành BuzzFeed Jonah Peretti đã tạo ra một video deepfake cho thấy những gì dường như là cựu Tổng thống Hoa Kỳ Barack Obama đưa ra một PSA về sức mạnh của deepfakes.

Sức mạnh của hình ảnh giả đã được tăng tốc bởi trình tạo hình ảnh được hỗ trợ bởi AI. Các bài đăng lan truyền vào năm 2023 mô tả Donald Trump bị bắt và Giáo hoàng Công giáo mặc áo khoác phồng hóa ra là kết quả của trí tuệ nhân tạo AI.

Có mẹo bạn có thể làm theo để phát hiện hình ảnh do AI tạo nhưng công nghệ ngày càng tinh vi.

5. Nhân viên nói rằng Amazon AI quyết định thuê nam giới tốt hơn

Vào tháng 10 năm 2018, Reuters báo cáo rằng Amazon đã phải loại bỏ một công cụ tuyển dụng sau khi AI của phần mềm quyết định rằng các ứng viên nam được ưu tiên hơn.

Các nhân viên muốn giấu tên đã nói với Reuters về công việc của họ trong dự án. Các nhà phát triển muốn AI xác định những ứng viên tốt nhất cho công việc dựa trên CV của họ. Tuy nhiên, những người tham gia vào dự án sớm nhận thấy rằng AI đã trừng phạt các ứng viên nữ. Họ giải thích rằng AI đã sử dụng CV từ thập kỷ trước, hầu hết trong số đó là của nam giới, làm dữ liệu đào tạo của nó.

Do đó, AI bắt đầu lọc ra các CV dựa trên từ khóa 'phụ nữ'. Từ khóa xuất hiện trong CV dưới các hoạt động như 'đội trưởng câu lạc bộ cờ vua nữ'. Trong khi các nhà phát triển đã thay đổi AI để ngăn chặn việc sơ yếu lý lịch của phụ nữ bị phạt, Amazon cuối cùng đã loại bỏ dự án.

6. Chatbot đã bẻ khóa

Mặc dù các chatbot mới hơn có những hạn chế để ngăn chúng đưa ra câu trả lời trái với điều khoản dịch vụ của chúng, nhưng người dùng đang tìm cách bẻ khóa các công cụ để cung cấp nội dung bị cấm.

Vào năm 2023, Aaron Mulgrew, một nhà nghiên cứu bảo mật của Forcepoint đã có thể tạo phần mềm độc hại zero-day bằng cách sử dụng lời nhắc ChatGPT.

Mulgrew cho biết: “Chỉ cần sử dụng lời nhắc của ChatGPT và không cần viết bất kỳ mã nào, chúng tôi có thể tạo ra một cuộc tấn công rất tiên tiến chỉ trong vài giờ”. bài lực lượng .

Người dùng cũng được cho là có thể nhận được chatbot để cung cấp cho họ hướng dẫn về cách chế tạo bom hoặc đánh cắp ô tô.

7. Tai nạn xe tự lái

Sự nhiệt tình dành cho xe tự lái đã giảm sút ngay từ giai đoạn cường điệu ban đầu do những sai lầm của AI tự lái. Năm 2022, Các bài viết washington báo cáo rằng trong khoảng một năm, 392 vụ tai nạn liên quan đến các hệ thống hỗ trợ người lái tiên tiến đã được báo cáo cho Cục Quản lý An toàn Giao thông Đường cao tốc Quốc gia Hoa Kỳ.

Những vụ tai nạn này bao gồm thương tích nghiêm trọng và sáu người tử vong.

Mặc dù điều này không ngăn cản các công ty như Tesla theo đuổi các phương tiện tự lái hoàn toàn, nhưng nó đã làm dấy lên mối lo ngại về sự gia tăng các vụ tai nạn khi ngày càng có nhiều ô tô có phần mềm tự lái xuất hiện trên đường.

AI học máy không phải là hoàn hảo

Mặc dù máy học có thể tạo ra các công cụ AI mạnh mẽ, nhưng chúng không tránh khỏi dữ liệu xấu hoặc sự can thiệp của con người. Dù là do dữ liệu đào tạo thiếu sót, những hạn chế với công nghệ AI hay do những kẻ xấu sử dụng, loại AI này đã dẫn đến nhiều sự cố tiêu cực.