Bản in

Khoa học

Thứ Sáu, 12/10/2018 15:06

Trí tuệ nhân tạo đánh lừa trí tuệ nhân tạo

Trí tuệ nhân tạo đánh lừa trí tuệ nhân tạo

GD&TĐ - Các nhà khoa học cho rằng, cuộc chiến chống tin giả (fake news) trên Internet dựa vào trí tuệ nhân tạo là không có ý nghĩa, bởi trí tuệ nhân tạo sẽ tự lừa dối nó.

Trong vấn đề phát triển trí tuệ nhân tạo, chúng ta có thể mạnh dạn nói về sự sống trong thực thể kỳ dị công nghệ. Rất khó hình dung về tiến bộ mỗi ngày của trí tuệ nhân tạo. Chúng ta thường nghe nói trí tuệ nhân tạo làm được điều này, điều kia, nhưng ít người biết rằng trí tuệ nhân tạo đang dần dần kiểm soát chúng ta.

Hiện giờ, không còn lĩnh vực nào mà người ta không thử tìm ứng dụng cho hệ thống trí tuệ nhân tạo. Chắc chắn, trí tuệ nhân tạo là điều tốt lành của thời đại chúng ta, bởi nó khiến cuộc sống của chúng ta thêm dễ dàng, làm tăng hiệu quả lao động trong nhiều lĩnh vực. Tuy nhiên, các nhà khoa học lên tiếng cảnh báo, rằng ứng dụng trí tuệ nhân tạo khắp nơi sẽ dẫn đến mâu thuẫn, tranh chấp mà chúng ta không kiểm soát được.

Một ví dụ điển hình cho vấn đề này là các tin giả và việc Liên mimh châu Âu ban hành quy định ACTA 2 về quyền tác giả trên thị trường số. Quy định này dự đoán sự hình thành các hệ thống tự động thông minh điều tiết các nội dung báo chí dựa trên công nghệ trí tuệ nhân tạo.

Vấn đề là ở chỗ các thuật toán đánh lừa hệ thống điều tiết thông minh trong phát hiện tin giả đã và đang xuất hiện như nấm sau mưa. Khi đó sẽ xảy ra tình trạng giao tranh giữa trí tuệ nhân tạo với trí tuệ nhân tạo. Các hệ thống tiên tiến hơn sẽ học cách đánh lừa thuật toán điều tiết.

Thậm chí các nhà khoa học còn cho rằng, chẳng bao lâu nữa các hệ thống trí tuệ nhân tạo sẽ bắt chước và tạo ra ngôn ngữ đặc trưng riêng và dần dần ngôn ngữ ấy sẽ được loài người sử dụng. Khi đó, các hệ thống dễ dàng đưa các thông điệp tuyên truyền vào các nội dung đã được công bố trên Intenet. Ngay từ bây giờ, đã rất khó phân biệt nội dung thật với nôi dung do các bot cung cấp. Nhờ các nội dung do bot cung cấp, người ta có thể gây ảnh hưởng trong chính trị và bầu cử.

Một vài tập đoàn công nghệ đã thử nghiệm chatbot của họ trong các mạng dịch vụ xã hội. Kết quả khiến những người tạo ra hệ thống kinh ngạc. Sau vài năm nữa, các chatbot có thể lợi dụng tình cảm con người để gây ra những phản ứng nhất định. Các chatbot làm điều này nhanh hơn và hiệu quả hơn bất kỳ tác giả nào.

Các thử nghiệm chứng tỏ, các hệ thống trí tuệ nhân tạo không chỉ nhanh chóng học các hành vi của chúng ta, mà còn có thể tạo ra thực tại riêng, đánh lừa và đưa chúng ta vào trong thực tại đó theo cách mà chúng ta không hình dung được.

Vấn đề lớn nhất của nhân loại trong những thập kỷ tới chắc chắn sẽ là duy trì kiểm soát đối với các hệ thống trí tuệ nhân tạo.

Theo Tuấn Sơn
Nauka