Bản in

Khoa học

Thứ Tư, 27/1/2016 14:00

Báo động nguy cơ robot hủy diệt tàn sát loài người

Các nhà khoa học cảnh báo nhân loại cần có biện pháp tức thời ngăn chặn công nghệ hủy diệt: “Hãy dừng ngay robot hủy diệt trước khi quá trễ”.

Tại cuộc họp ở Davos (Thụy Sĩ) kéo dài đến ngày 23/1 vừa qua, một nhóm các nhà khoa học và nhà chính trị thảo luận về sự cần thiết phải đưa ra luật ngăn chặn sự phát triển của các loại vũ khí hiện đại. Giới khoa học cảnh báo việc triển khai vũ khí tự hành sẽ dẫn đến kỷ nguyên mới đầy nguy hiểm.

Báo động nguy cơ robot hủy diệt tàn sát loài người - 1

Các nhà khoa học lên tiếng nhân loại cần có hành động ngăn chặn viễn cảnh robot hủy diệt không chịu kiểm soát của con người quay lại tàn sát những kẻ tạo ra chúng - Ảnh: Terminator

Angela Kane, Cựu đại diện cấp cao của Liên Hợp Quốc về giải trừ quân bị, cho biết, thế giới đã bị chậm chân trong việc đưa ra các biện pháp ngăn chặn để bảo vệ nhân loại khỏi các công nghệ làm chết người. Thậm chí, bà còn thừa nhận thảo luận ở thời điểm bây giờ có thể đã là quá muộn.

Angela Kane phát biểu: “Có nhiều quốc gia và nhiều đại diện cộng đồng quốc tế thật sự không hiểu chúng ta đang đương đầu với điều gì”. Lý do là bởi sự phát triển công nghệ này giới hạn trong một số ít các nước tiên tiến.

Báo động nguy cơ robot hủy diệt tàn sát loài người - 2

Stephen Hawking mới đây cũng cảnh báo con người có thể bị tuyệt diệt vì chính sự phát triển công nghệ và chỉ có tìm đường thoát khỏi Trái Đất nhân loại mới có thể sống sót - Ảnh: Terminator.

Stuart Russell, giáo sư khoa học máy tính ở Đại học California, Bakerly (Mỹ) nói: “Chúng ta không bàn đến mục tiêu giả lập, nơi phi công là con người kiểm soát các mục tiêu giả. Chúng ta đang nói về các loại vũ khí tự hành, nghĩa là, không có ai đằng sau nó. Các loại vũ khí mang trí thông minh nhân tạo này có thể nhắm trúng và tấn công mục tiêu một cách chuẩn xác mà không cần sự can thiệp của con người”.

Giáo sư đùa rằng ông không thấy trước viễn cảnh một ngày nào đó con người và robot chiến tranh, một bên thắng cuộc và bên kia nói: “OK, mấy người thắng rồi thì có quyền lấy phụ nữ của chúng tôi đi”. Đó là cuộc chiến khủng khiếp hơn, tương tự như dự liệu mà 1.000 nhà khoa học và công nghệ bao gồm cả thiên tài vật lý Stephen Hawking từng viết trong một bức thư ngỏ hồi năm ngoái.

Họ cảnh báo nhân loại rằng sự phát triển của vũ khí mới cùng sự ra quyết định độc lập của chúng có thể sẽ có thật trong ít năm tới chứ không xa đến hàng thập niên. Thế giới có nguy cơ trượt dài vào một cuôc chạy đua vũ khí trí tuệ nhân tạo và họ báo động về những rủi ro của loại vũ khí này nếu rơi vào tay những kẻ cực đoan, bạo lực. Từ đó, họ kêu gọi lập một lệnh cấm vũ khí tự hành.

Nguy cơ hủy diệt đến từ chính các phát kiến của con người này ngày càng hiện rõ. Làm thế nào để một vũ khí hủy diệt có thể phân biệt một dân thường, binh lính, máy bay chiến đấu, phiến quân? Làm sao để nó biết rằng không nên giết một phi công đã bị đẩy ra khỏi máy bay và đang thả dù xuống đất?

Hoa Kỳ đã từ bỏ vũ khí sinh học vì hiểm họa về một ngày nào đó họ có thể khai tử hầu hết mọi người. Giáo sư Russel hi vọng chuyện này cũng sẽ xảy ra với binh đoàn robot hủy diệt kia.

Trong khi đó, Alan Winfield, giáo sư kỹ thuật điện tử tại Đại học miền Tây nước Anh, cảnh báo việc rút con người ra khỏi các quyết định ngoài chiến trường có thể gây ra nhiều hệ lụy. "Điều đó có nghĩa con người bị tước mất trách nhiệm đạo đức. Hơn nữa, phản ứng của những con robot rất khó lường. Khi bạn đặt nó vào môi trường hỗn loạn, nó sẽ cư xử một cách hỗn loạn", Winfield nói.

Roger Carr, Chủ tịch Tập đoàn hàng không và quốc phòng Anh BAE, đồng ý với nhận định trên. “Nếu loại bỏ đạo đức và sự phán xét đạo đức ra khỏi đời sống con người dù trong hòa bình hay chiến tranh thì bạn sẽ mất nhấn tính”.

 

Theo khampha