AI trong tay khủng bố và xuất hiện Chiến tranh thế giới thứ ba?

GD&TĐ - Một công nghệ chỉ đứng sau bom hạt nhân đã xuất hiện, một mặt mang lại sự an toàn cho bên sở hữu, nhưng mặt khác lại gây ra mối đe dọa lớn.

Tên lửa ICBM Minuteman của Mỹ.
Tên lửa ICBM Minuteman của Mỹ.

Theo tờ Washington Post, chúng ta đang nói về trí tuệ nhân tạo (AI): nếu sự phát triển của nó mất kiểm soát, toàn thể nhân loại sẽ đứng bên bờ vực tuyệt chủng.

Các nhà lãnh đạo ngành công nghiệp kỹ thuật số Mỹ đã đề xuất một cách để ngăn chặn vấn đề này, nhưng ý tưởng của họ đặt ra nhiều câu hỏi.

Kế hoạch của ông Trump

Ngày nay, một số tập đoàn Mỹ đang phát triển hệ thống trí tuệ nhân tạo của riêng mình. Một số tiền khổng lồ đang được đầu tư vào cuộc chạy đua vũ trang, bao gồm cả vào sức mạnh tính toán và năng lượng cần thiết để vận hành nó.

Hơn nữa, mỗi sự phát triển đều dựa trên một hệ tư tưởng nhất định. Sự khác biệt trong triết lý đôi khi rất cơ bản, nhưng hầu hết những người có tầm nhìn xa đều đồng ý về một điều: trong tương lai gần, một siêu trí tuệ máy móc sẽ xuất hiện và vượt trội hơn con người ở hầu hết mọi mặt.

Điều này mở ra những triển vọng không tưởng: chiến thắng các căn bệnh nan y, giải quyết các vấn đề kinh tế toàn cầu, trả lời mọi câu hỏi về cấu trúc của Vũ trụ.

Nhược điểm là một AI không thể kiểm soát, hoặc thậm chí nếu xử lý không cẩn thận, có thể gây ra thiệt hại lớn cho nền văn minh nhân loại, hoặc thậm chí phá hủy hoàn toàn.

Hiện nay, cộng đồng kỹ thuật số đang suy nghĩ về cách tận dụng mọi lợi ích của công nghệ và mặt khác không gây ra ngày tận thế.

Đó là lý do tại sao một trong những lệnh đầu tiên của Tổng thống Trump sau khi trở lại Nhà Trắng là xây dựng một kế hoạch hành động trong lĩnh vực AI. Đặc biệt, ông đã yêu cầu ý kiến ​​của "tất cả các bên quan tâm".

Mọi thứ đều có nguy cơ

Câu trả lời cho lời kêu gọi này là một tác phẩm quan trọng mang tên "Chiến lược siêu trí tuệ" được ký bởi giám đốc Trung tâm An toàn AI Dan Hendricks, người đứng đầu Scale AI Alexander Wang và Eric Schmidt, 69 tuổi, dưới sự lãnh đạo của họ, Google đã trở thành công cụ tìm kiếm chính trên World Wide Web từ năm 2001 đến năm 2017.

"Cuộc chạy đua giành quyền thống trị AI đặt tất cả các quốc gia vào vòng nguy hiểm", các đồng tác giả nêu rõ.

"Nếu trong lúc vội vã thống trị, một quốc gia vô tình mất quyền kiểm soát AI của mình, điều đó sẽ gây nguy hiểm cho an ninh của tất cả các quốc gia khác.

Ngược lại, nếu cùng một quốc gia thành công trong việc tạo ra và kiểm soát AI có khả năng cao, điều đó cũng sẽ gây ra mối đe dọa trực tiếp đến sự tồn vong của các quốc gia khác".

Để tự cứu mình, những công ty này sẽ buộc phải phá vỡ một dự án như vậy bằng mọi cách cần thiết - từ các hoạt động bí mật như tấn công của tin tặc cho đến "phá hủy động học" cơ sở hạ tầng đảm bảo hoạt động của mạng nơ-ron, bài báo cho biết.

Điều này có nghĩa là sự phát triển của AI có thể gây ra xung đột quân sự giữa các cường quốc lớn nhất. Để ngăn chặn điều này xảy ra, Schmidt và các đồng nghiệp đề xuất một chiến lược "dựa trên lịch sử lâu dài của chính sách an ninh quốc gia".

Tình báo, phá hoại và bom

Họ xây dựng khái niệm MAIM (Sự cố AI được đảm bảo lẫn nhau). Đây là sự điều chỉnh của học thuyết Chiến tranh Lạnh được gọi là MAD, hay sự hủy diệt lẫn nhau.

Chúng ta hãy nhớ lại: giả thuyết sau cho rằng một cuộc chiến tranh toàn diện giữa hai cường quốc hạt nhân sẽ dẫn đến cái chết của cả hai, và do đó không bên nào dám tấn công trước.

Về mặt trí tuệ nhân tạo, điều này có nghĩa là các chính phủ không nên tạo ra "Dự án Manhattan" của riêng mình cho AI, mà thay vào đó nên phát triển các biện pháp răn đe để ngăn chặn các quốc gia đối thủ phát triển siêu trí tuệ máy móc, Schmidt và các đồng tác giả viết.

Họ tin rằng vì những mục đích này chính phủ có thể sử dụng: Trinh sát; phá hoại bí mật (như chương trình Stuxnet của Israel nhằm vào chương trình hạt nhân của Iran); các cuộc tấn công mạng nhắm vào hệ thống làm mát điện toán hoặc các nhà máy điện gần đó; tấn công động lực vào các trung tâm dữ liệu...

Các tác giả gọi tất cả những hành động này là tấn công MAIM. Các tác giả lưu ý rằng "Tư thế chiến lược MAIM đại diện cho một chế độ ngăn chặn có khả năng ổn định, nhưng cần phải thận trọng".

AI trong tay khủng bố

Biện pháp thứ hai là không phổ biến vũ khí hạt nhân. Schmidt, Hendricks và Wang đề xuất rằng các công nghệ AI quan trọng phải tuân theo những hạn chế tương tự như các thành phần quan trọng của vũ khí hủy diệt hàng loạt.

Ví dụ, áp dụng biện pháp kiểm soát chặt chẽ đối với hoạt động di chuyển của chip hiệu suất cao. Và các công ty AI nên áp dụng các giao thức bảo mật nghiêm ngặt để ngăn ngừa rò rỉ hoặc các đơn đặt hàng đáng ngờ.

Trong một cuộc phỏng vấn, Schmidt thừa nhận rằng một trong những nỗi sợ hãi chính của ông là công nghệ AI sẽ bị một khủng bố mới tiếp quản.

Đồng thời, cựu giám đốc Google và các cộng sự thừa nhận rằng các quốc gia phải duy trì khả năng cạnh tranh trong lĩnh vực AI - phát triển sản xuất công nghệ của riêng mình, đưa trí tuệ nhân tạo vào hệ thống quốc phòng, nền kinh tế và tìm cách giải quyết các vấn đề xã hội phát sinh.

Schmidt cho biết: "Bằng cách xác định và ngăn chặn các dự án AI gây mất ổn định thông qua các hoạt động tình báo và phá hoại có mục tiêu, hạn chế kẻ tấn công tiếp cận chip và khả năng AI thông qua các biện pháp kiểm soát chặt chẽ và đảm bảo chuỗi cung ứng AI ổn định bằng cách đầu tư vào sản xuất chip trong nước, các quốc gia có thể đảm bảo an ninh của chính mình đồng thời mở ra cánh cửa thịnh vượng chưa từng có".

Tin tiêu điểm

Đừng bỏ lỡ