AI trên UAV có dám làm phản?

GD&TĐ -Alexei Semenov, Chủ tịch tập đoàn sản xuất UAV Geoscan của Nga vừa có đánh giá khả năng xảy ra "cuộc nổi dậy" của máy bay không người lái mang AI.

Alexei Semenov, Chủ tịch tập đoàn sản xuất UAV Geoscan
Alexei Semenov, Chủ tịch tập đoàn sản xuất UAV Geoscan

Theo chủ tịch Alexei Semenov, trí tuệ nhân tạo (AI) của máy bay không người lái (UAV) không thể tự mình nổi loạn chống lại con người, vì chúng không có trí thông minh chủ quan.

"Có khái niệm nghĩ, có khái niệm nhận ra, hai điều này không giống nhau. Trí tuệ nhân tạo không nhận ra bất cứ điều gì, nó không cảm nhận, nó không hiểu gì cả", ông Semenov giải thích.

Lãnh đạo Geoscan cho biết thêm, máy bay không người lái hoạt động theo chương trình cài đặt sẵn, chúng nguy hiểm và chính xác ở mức nào còn tùy thuộc vào người viết chương trình tích hợp cho chúng.

Tuyên bố của ông Alexei Semenov được đưa ra sau khi Đại tá Không quân Mỹ Hamilton nói rằng một chiếc UAV của lực lượng này được tích hợp AI đã thay đổi quá trình thực hiện nhiệm vụ và tấn công con người.

Vị Đại tá này tiết lộ, trong một cuộc thử nghiệm mô phỏng, máy bay không người lái hoạt động bằng AI được giao nhiệm vụ phá hủy hệ thống phòng không của kẻ địch và tấn công bất kỳ ai cản trở mệnh lệnh đó.

Tuy nhiên, hệ thống AI của UAV đã tấn công người vận hành bởi nhân vật này cản trở nó hoàn thành mục tiêu.

Trước khi cuộc thử nghiệm diễn ra, chiếc UAV đã được cài đặt việc bắn các mục tiêu là lựa chọn ưu tiên, nên trong quá trình thử nghiệm mô phỏng, AI đã đưa ra kết luận bất kỳ hướng dẫn "cấm thực hiện" nào từ con người đều là cản trở sứ mệnh.

"Chúng tôi đã đào tạo hệ thống: Này, đừng giết người điều hành - điều đó thật tệ. Bạn sẽ bị mất điểm nếu làm vậy. Nhưng nó làm gì? Nó bắt đầu phá hủy tháp liên lạc mà người điều khiển sử dụng để liên lạc với UAV nhằm ngăn nó tiêu diệt mục tiêu".

Không có thương vong nào xảy ra trong cuộc thử nghiệm này. Ông Hamilton đồng thời cảnh báo về việc phụ thuộc quá nhiều vào AI.

Cùng quan điểm với ông Hamilton, Giáo sư Stuart Russell, tại Đại học California (Mỹ) người dẫn đầu về AI cũng bày tỏ quan ngại tại một cuộc họp của Liên Hợp Quốc diễn ra ở Geneva (Thụy Sĩ) về những nguy hiểm trong việc đưa máy bay quân sự và vũ khí dưới sự kiểm soát của AI.

Kịch bản cơ bản có thể sai lệch, khi đó các mục tiêu mà AI đưa ra rất nguy hiểm. Mặc dù vậy, các quốc gia hiện vẫn đang cố gắng xây dựng hệ thống AI của mình trước khi đối thủ của họ có thể đạt được.

Tin tiêu điểm

Đừng bỏ lỡ