Chuyện điên rồ về trí tuệ nhân tạo

GD&TĐ - Máy móc ngày càng thông minh và đã đạt đến khả năng tự học và tự đưa ra quyết định. Thậm chí, có những bộ máy còn có cả ước mơ, học từ bộ não người, và phát triển thành những bậc thầy nghệ thuật. Trong tương lai, các kỹ năng của trí tuệ thông minh (A.I) còn có thể “khủng khiếp” hơn nữa, khiến việc con người cần sử dụng thiết bị chống A.I sẽ trở thành tương lai gần.

Chuyện điên rồ về trí tuệ nhân tạo

Định kiến

Trong xã hội loài người từ xưa đến nay, việc chiến đấu với định kiến vô cùng khó khăn. Có vô số các loại định kiến đã hình thành, gây ra nhiều khó khăn cho các đối tượng bị định kiến, thậm chí dẫn đến nhiều đại nạn như phân biệt chủng tộc, phân biệt giới, chiến tranh tôn giáo… Hãy hỏi bất cứ người nào từng phải trải qua sự phân biệt đối xử do sự khác biệt trên cơ thể hoặc niềm tin của họ.

Những tưởng định kiến là “sản phẩm” độc đáo hình thành duy nhất từ bộ não con người. Thế nhưng trong thực tế, có những hình thức khác của tai họa này đã phát sinh dưới dạng A.I.

Một vài năm trước, những kẻ chuyên thực hiện những trò đùa (troll), thậm chí lừa đảo trên Twitter cần chưa đến 24 giờ để biến “cô nàng” A.I Tay trở thành một kẻ phát xít mới. Tay là một robot trò chuyện có trí tuệ nhân tạo đầu tiên được hãng Microsoft tung ra trên Twittervào ngày 23/3/2016. Tuy nhiên, Tay đã gây ra tranh cãi sau đó khi bắt đầu đăng các tweet gây khó chịu trên tài khoản Twitter của mình, buộc Microsoft phải đóng cửa dịch vụ chỉ 16 giờ sau khi ra mắt.

Nghiên cứu cho thấy, việc trêu đùa không phải là lý do duy nhất khiến A.I chĩa mũi nhọn vào phụ nữ và người già. Mạng lưới thần kinh học của Tay đã học được sự thành kiến từ ngôn ngữ của con người trong khi nó xử lý thông tin từ các trang web.

Gần đây, các nhà khoa học đã phát triển một bài kiểm tra liên kết từ cho GloVe, một thuật toán học tập không giám sát để có được các biểu diễn vectơ cho các từ.

Việc “dạy dỗ” GloVe được thực hiện trên các số liệu thống kê về sự xuất hiện của từ ngữ trên toàn cầu và các biểu diễn kết quả thể hiện các cấu trúc tuyến tính thú vị của không gian vectơ từ. A.I này được sử dụng rộng rãi trong các nhiệm vụ đại diện từ.

Vào cuối thí nghiệm, ngay cả các nhà nghiên cứu cũng phải kinh ngạc khi tìm thấy mọi thành kiến mà họ có thể kiểm tra ở GloVe, chẳng hạn như có phản ứng tiêu cực hơn với tên của người Mỹ gốc Phi và người già, hoặc thể hiện sự liên kết phụ nữ tới gia đình nhiều hơn sự nghiệp.

Thực tế là xã hội thường ứng xử với một số nhóm nhất định với sự phân biệt khiến các A.I nhận biết được và ngay lập tức “học tập” điều đó. Chỉ có điều, con người có thể hiểu ra sự công bằng là như thế nào và có thể chọn cách không phân biệt đối xử với ai đó; còn máy tính thì không thể.

(Còn tiếp)

Tin tiêu điểm

Đừng bỏ lỡ