Chuyên gia cảnh báo đáng sợ về sự sống của nhân loại trước AI

0:00 / 0:00
0:00

GD&TĐ - Một nhà nghiên cứu AI nói rằng, nhân loại chưa được chuẩn bị để sống sót khi chạm trán với trí thông minh nhân tạo thông minh hơn nhiều.

Mô hình thực tế của robot hủy diệt "T-800", được sử dụng trong bộ phim "Kẻ hủy diệt 2". (Ảnh: AFP/Yoshikazu Tsuno).
Mô hình thực tế của robot hủy diệt "T-800", được sử dụng trong bộ phim "Kẻ hủy diệt 2". (Ảnh: AFP/Yoshikazu Tsuno).

Dừng phát triển các hệ thống trí tuệ nhân tạo (AI) tiên tiến trên toàn cầu và trừng phạt nghiêm khắc những người vi phạm lệnh cấm này là cách duy nhất để cứu loài người khỏi sự tuyệt chủng, nhà nghiên cứu AI nổi tiếng Eliezer Yudkowsky cảnh báo.

Eliezer Yudkowsky là người đồng sáng lập Viện Nghiên cứu Trí tuệ Máy móc (MIRI). Hôm 30/3, ông có một bài viết cho tạp chí TIME. Trong đó, ông giải thích lý do tại sao ông không ký vào bản kiến nghị kêu gọi “tất cả các phòng thí nghiệm AI ngay lập tức tạm dừng trong ít nhất 6 giờ để đào tạo các hệ thống AI mạnh hơn GPT-4”. Đây là một mô hình ngôn ngữ lớn đa phương thức, mới được OpenAI phát hành.

Ông Yudkowsky lập luận rằng kiến nghị trên được ký bởi những người như Elon Musk và Steve Wozniak của Apple, đang yêu cầu quá ít để giải quyết vấn đề do sự phát triển nhanh chóng và thiếu kiểm soát của AI.

Theo ông, kết quả dễ xảy ra của việc xây dựng một AI thông minh siêu phàm trong hoàn cảnh hiện tại là mọi người trên Trái đất sẽ chết theo đúng nghĩa đen.

Ông lập luận, việc sống sót sau cuộc chạm trán với một hệ thống máy tính “không quan tâm đến chúng ta cũng như cuộc sống có tri giác nói chung” sẽ đòi hỏi “sự chính xác và sự chuẩn bị, cũng như những hiểu biết khoa học mới”. Những điều này nhân loại hiện đang thiếu và khó có thể đạt được trong tương lai gần.

“Một AI đủ thông minh sẽ không bị giới hạn trong máy tính” – ông Yudkowsky cảnh báo. Ông giải thích, việc có thể gửi email các chuỗi DNA đến các phòng thí nghiệm để sản xuất protein có thể sẽ cho phép AI “xây dựng các dạng sống nhân tạo, hoặc khởi động thẳng đến quá trình sản xuất phân tử hậu sinh học” và bước ra thế giới.

Theo nhà nghiên cứu, một lệnh cấm vô thời hạn và trên toàn thế giới đối với các hoạt động đào tạo AI lớn mới phải được đưa ra ngay lập tức. Ông nhấn mạnh: “Không thể có ngoại lệ, kể cả đối với chính phủ hay quân đội”.

Yudkowsky lưu ý, các thỏa thuận quốc tế nên được ký kết để đặt ra mức trần về sức mạnh tính toán mà bất kỳ ai cũng có thể sử dụng để đào tạo các hệ thống như vậy.

Ông nói thêm rằng, mối đe dọa từ trí tuệ nhân tạo lớn đến mức cần phải làm rõ trong ngoại giao quốc tế. Theo đó, việc ngăn chặn các kịch bản khiến loài người tuyệt chủng của AI phải được coi là ưu tiên hơn so với việc ngăn chặn một cuộc trao đổi hạt nhân toàn phần.

Theo RT

Tin tiêu điểm

Đừng bỏ lỡ