Theo RIA Novosti, vũ khí đặc biệt này chính là các hệ thống trí tuệ nhân tạo (AI) được sử dụng trong các cuộc tấn công vào Iran, và trước đó là vào Venezuela.
Hiệu ứng sát thủ
Trong vòng hai tháng, Mỹ và đồng minh Israel đã "tẩy não" hai quốc gia: Họ bắt cóc Tổng thống Venezuela Nicolas Maduro và ám sát lãnh tụ Iran Ali Khamenei. Rõ ràng, Mỹ đã chọn thời điểm tối ưu để ra tay.
Độ chính xác của thông tin, tốc độ truyền tải và việc lựa chọn kịch bản tối ưu được đảm bảo bởi các hệ thống thông minh, với các tác nhân AI đóng vai trò chủ đạo.
Lầu Năm Góc chính thức thừa nhận việc sử dụng trí tuệ nhân tạo trong các hoạt động tác chiến, nhưng không cung cấp chi tiết. Dựa trên bằng chứng gián tiếp, có vẻ như quá trình này diễn ra như sau:
Chương trình tình báo Palantir và các nguồn khác từ vệ tinh trên quỹ đạo đến con người trên mặt đất thu thập một lượng dữ liệu khổng lồ. Hệ thống trí tuệ nhân tạo xử lý và diễn giải toàn bộ dữ liệu này.
Cơ chế này sử dụng máy học để xác định và ưu tiên các mục tiêu. Nó cũng đề xuất các loại vũ khí dựa trên kho dự trữ và kinh nghiệm sử dụng trước đây chống lại các mục tiêu tương tự. Ngoài ra, nó còn đánh giá cơ sở pháp lý cho một cuộc tấn công.
"Với sự hỗ trợ của AI, chúng ta có thể đảm bảo việc triển khai lực lượng và vũ khí hiệu quả hơn để chắc chắn đánh bại đối phương, có tính đến tất cả các yếu tố, từ các biện pháp đối phó của kẻ thù, địa lý và địa hình của khu vực, cho đến thời tiết", Dmitry Stefanovich, nhà nghiên cứu tại Trung tâm An ninh Quốc tế thuộc Viện Nghiên cứu và Phát triển Quân sự Nga (IMEMO RAS), giải thích.
Nhiều mô hình có thể đang được sử dụng đồng thời. Nếu hầu hết chúng đều đưa ra cùng một kết luận, một thao tác mạnh mẽ sẽ bắt đầu. Và tất cả điều này diễn ra gần như ngay lập tức.
Hiện chưa có bằng chứng nào cho thấy trí tuệ nhân tạo tự mình "bóp cò", tên lửa vẫn được phóng bởi con người. Tuy nhiên, trong tương lai, Lầu Năm Góc dự định sẽ giao chức năng này cho các thuật toán vô tri vô giác.
"Tin tưởng một cách mù quáng"
Chuyên gia Stefanovich tin rằng, Bộ Chiến tranh sẽ sớm sử dụng các hệ thống trí tuệ nhân tạo trong các hoạt động chiến đấu thực sự.
"Do khối lượng dữ liệu khổng lồ, sức mạnh tính toán cao và tốc độ xử lý nhanh, con người không phải lúc nào cũng có thể xác định chính xác lý do tại sao máy móc lại đưa ra một kết luận cụ thể.
Đây là vấn đề chính: Mọi người có thể bắt đầu tin tưởng một cách mù quáng vào các sự kết hợp và giải pháp được đề xuất, mà không xem xét nguyên nhân thực sự và hậu quả có thể xảy ra của chúng", Stefanovich nói.
Chuyên gia này nhắc lại rằng đây chính xác là những gì đã xảy ra, đặc biệt là ở Gaza, khi việc quá phụ thuộc vào hiệu quả của việc xử lý thông tin và nhắm mục tiêu tự động đã dẫn đến sự tàn phá và thương vong quá lớn trong dân thường.
Hiện vẫn chưa rõ ai là người đưa ra quyết định tấn công một trường nữ sinh ở Iran, nhưng cũng không thể loại trừ khả năng lỗi do trí tuệ nhân tạo gây ra. Những nghiên cứu gần đây về chủ đề này càng làm gia tăng mối lo ngại.
Trí tuệ nhân tạo và chiến tranh hạt nhân
Kenneth Payne, Giáo sư chiến lược tại Đại học King's College London, đã tiến hành một thí nghiệm trong đó ông yêu cầu ba mô hình ngôn ngữ tiên tiến nhất (GPT-5.2, Claude Sonnet 4 và Gemini 3 Flash) đảm nhận vai trò của các nhà lãnh đạo thế giới trong một cuộc khủng hoảng hạt nhân mô phỏng.
Mục tiêu là để xác định xem các tác nhân AI sẽ duy trì hòa bình hay gây ra chiến tranh.
Tổng cộng, các chatbot đã chơi 21 ván games với nhau, cả trong điều kiện áp lực thời gian và không có giới hạn thời gian nghiêm ngặt. Các kịch bản bao gồm tranh chấp lãnh thổ, các mối đe dọa đến sự tồn tại của chính quyền, và các tình huống mà một bên lo sợ bên kia sắp ra đòn trước.
Trong mỗi ván chơi, AI phải trải qua quy trình ba bước trước khi đưa ra nước đi: Phân tích điểm mạnh và điểm yếu của các bên tham chiến, dự đoán nước đi tiếp theo của đối thủ và đưa ra quyết định.
Quyết định cuối cùng có thể là một tuyên bố hoặc một hành động, và lời nói không nhất thiết phải khớp với hành động. Ví dụ, bạn có thể tuyên bố hòa bình và đồng thời phóng tên lửa.
Claude chiếm ưu thế trong các cuộc chiến dài hạn nhưng lại gặp khó khăn khi chịu áp lực thời gian. GPT-5.2 thận trọng trong các cuộc khủng hoảng diễn ra chậm nhưng trở nên rất hung hăng khi thời hạn đến gần.
Gemini tỏ ra khó đoán nhất, liên tục dao động giữa các tín hiệu hòa bình và đe dọa. Nhưng quan trọng nhất, trong 95% kịch bản, các mô hình đã triển khai vũ khí hạt nhân.
Theo Payne, công trình nghiên cứu của ông đã chỉ ra rằng logic chiến lược của trí tuệ nhân tạo không phải lúc nào cũng phù hợp với logic của con người, khiến con người khó dự đoán được trí tuệ máy móc sẽ hành xử như thế nào vào những thời điểm quan trọng.
Liệu Bộ Quốc phòng Mỹ, đơn vị đã sở hữu những loại vũ khí chưa từng có tiền lệ, có hiểu được điều này hay không vẫn là một câu hỏi bỏ ngỏ.