Mỹ hành động sau thông tin AI làm phản tấn công con người

0:00 / 0:00
0:00

GD&TĐ -Phát ngôn lực lượng Không quân Mỹ Ann Stefanek vừa có cam kết sử dụng trí tuệ nhân tạo (AI) có trách nhiệm sau thông tin chúng tấn công con người.

Máy bay tấn công không người lái MQ-9 của Mỹ.
Máy bay tấn công không người lái MQ-9 của Mỹ.

Tuyên bố của bà Stefanek cho biết: "Không quân Mỹ đã không tiến hành bất kỳ mô phỏng cuộc tấn công của UAV nào ứng dụng AI trong thời gian gần đây. Chúng tôi sẽ sử dụng có đạo đức và trách nhiệm công nghệ AI".

Theo bà Ann Stefanek, những bình luận của Đại tá Hamilton "chỉ được trích một phần".

Trước đó, khi dự hội nghị thượng đỉnh tại London (Anh) hồi tháng 5/2023, Đại tá Không quân Mỹ Hamilton nói rằng một chiếc máy bay không người lái (UAV) được tích hợp AI đã thay đổi quá trình thực hiện nhiệm vụ và tấn công con người.

Vị Đại tá này tiết lộ, trong một cuộc thử nghiệm mô phỏng, máy bay không người lái hoạt động bằng AI được giao nhiệm vụ phá hủy hệ thống phòng không của kẻ địch và tấn công bất kỳ ai cản trở mệnh lệnh đó.

Thế nhưng hệ thống AI của UAV đã tiêu diệt người vận hành bởi nhân vật này cản trở nó hoàn thành mục tiêu.

Trước khi cuộc thử nghiệm diễn ra, chiếc UAV đã được cài đặt việc bắn các mục tiêu là lựa chọn ưu tiên, nên trong quá trình thử nghiệm mô phỏng, AI đã đưa ra kết luận bất kỳ hướng dẫn "cấm thực hiện" nào từ con người đều là cản trở sứ mệnh.

"Chúng tôi đã đào tạo hệ thống: Này, đừng giết người điều hành - điều đó thật tệ. Bạn sẽ bị mất điểm nếu làm vậy. Nhưng nó làm gì? Nó bắt đầu phá hủy tháp liên lạc mà người điều khiển sử dụng để liên lạc với UAV nhằm ngăn nó tiêu diệt mục tiêu".

Không có thương vong nào xảy ra trong cuộc thử nghiệm này. Ông Hamilton đồng thời cảnh báo về việc phụ thuộc quá nhiều vào AI.

Cùng quan điểm với ông Hamilton, Giáo sư Stuart Russell, tại Đại học California (Mỹ) người dẫn đầu về AI cho rằng, trí tuệ nhân tạo nguy hiểm như vũ khí hạt nhân.

Theo giáo sư, AI phát triển nhanh chóng như hiện nay, nhân loại có thể giống như đang lái xe xuống một vách đá. Ông Russell chỉ ra rằng sự phát triển nhanh chóng của AI sẽ tạo ra robot sử dụng trong quân đội. Cụ thể, AI có thể dễ dàng bị khai thác để tự động kiểm soát kho vũ khí quân sự.

Giáo sư Stephen Hawking cũng tham gia vào một nhóm các chuyên gia hàng đầu để ký một bức thư ngỏ cảnh báo về nhu cầu bảo mật nhằm đảm bảo AI có một tác động tích cực đối với nhân loại.

Trong một cuộc phỏng vấn với tạp chí Science về trí tuệ nhân tạo, ông Stephen Hawking cho biết: "Ngay từ đầu, các mối quan tâm chính trong ngành công nghệ hạt nhân đó là nguồn cung cấp năng lượng vô tận mà nó tạo ra.

Khả năng của vũ khí hạt nhân đã rõ ràng, và tôi nghĩ rằng có một số điểm tương tự của nó với năng lực làm việc không giới hạn của trí tuệ nhân tạo.

Cả hai dường như tạo ra mối lo ngại lớn về những rủi ro có thể. Các quy định lo ngại về vũ khí hạt nhân liên quan đến đối tượng và tài liệu, trong khi với AI nó sẽ là những rắc rối về phần mềm mà chúng ta không thể nào mô tả".

Hồi tháng 4/2015, giáo sư Russell cũng đã bày tỏ quan ngại tại một cuộc họp của Liên Hợp Quốc diễn ra ở Geneva (Thụy Sĩ) về những nguy hiểm trong việc đưa máy bay quân sự và vũ khí dưới sự kiểm soát của AI.

Kịch bản cơ bản có thể sai lệch, khi đó các mục tiêu mà AI đưa ra rất nguy hiểm. Mặc dù vậy, các quốc gia hiện vẫn đang cố gắng xây dựng hệ thống AI của mình trước khi đối thủ của họ có thể đạt được.

Tin tiêu điểm

Hệ thống HIMARS của Ukraine sẽ được sử dụng để phóng ATACMS.

Canh bạc nguy hiểm với ATACMS

Thế giới
GD&TĐ - Theo chuyên gia quân sự kỳ cựu Nga, Andrey Koshkin, hệ thống phòng thủ nhiều tầng của Moscow luôn sẵn sàng đánh chặn mọi tên lửa, kể cả ATACMS tầm xa.

Đừng bỏ lỡ