Mỹ lập lực lượng đặc nhiệm riêng đối phó AI

0:00 / 0:00
0:00

GD&TĐ -Bộ An ninh Nội địa Mỹ ra mắt lực lượng đặc nhiệm về trí tuệ nhân tạo, ngăn khả năng công nghệ trở nên độc hại.

Mỹ lo ngại trí tuệ nhân tạo gây nên tác động khó lường.
Mỹ lo ngại trí tuệ nhân tạo gây nên tác động khó lường.

Bộ An ninh Nội địa Mỹ vừa thành lập Lực lượng đặc nhiệm về Trí tuệ nhân tạo chuyên trách công việc bảo vệ quốc gia khỏi các mối nguy từ trí tuệ nhân tạo, đồng thời ngăn cản việc sử dụng trí tuệ nhân tạo vào các mục đích độc hại.

Bộ trưởng Bộ An ninh Nội địa Mỹ Alejandro Mayorkas tuyên bố: "Bộ phận của chúng tôi sẽ dẫn đầu trong việc sử dụng AI có trách nhiệm để bảo vệ quê hương và bảo vệ chống lại việc sử dụng độc hại công nghệ đột phá này."

Theo đánh giá của quan chức Mỹ, dù AI vẫn đang ở “giai đoạn sơ khai” nhưng tiềm năng nhận thức của công nghệ này chứa sức mạnh phi thường.

Bộ trưởng Bộ An ninh Nội địa Mỹ Alejandro Mayorkas.

Bộ trưởng Bộ An ninh Nội địa Mỹ Alejandro Mayorkas.

Ông Mayorkas khẳng định, bất kỳ AI nào được Bộ này sử dụng đều sẽ bị kiểm tra nghiêm ngặt để tránh sai lệch và tác động lẫn nhau.

Bộ An ninh Nội địa Mỹ có kế hoạch tích hợp AI vào chuỗi cung ứng và sàng lọc hàng hóa bởi trí tuệ nhân tạo có thể phát hiện chính xác các sản phẩm được sản xuất bằng lao động nô lệ, các sản phẩm chứa chất cấm, hay các sản phẩm được mạng lưới tội phạm che giấu.

Trí tuệ nhân tạo cũng có thể bảo vệ lưới điện, nguồn cung cấp nước, các cơ sở hạ tầng quan trọng khác vốn là mục tiêu tiềm năng của các kẻ thù.

"Tốc độ thay đổi công nghệ nhanh chóng và thời điểm then chốt mà chúng ta đang sống, đòi hỏi chúng ta phải hành động ngay hôm nay" - ông Mayorkas khẳng định.

Hàng nghìn chuyên gia AI gần đây đã ký một bức thư ngỏ kêu gọi lệnh cấm sáu tháng đối với “các thí nghiệm AI khổng lồ” để các chính phủ, tập đoàn và các bên liên quan khác có thể đưa ra một khung pháp lý mới, bao gồm các biện pháp bảo vệ công nghệ này tác động tiêu cực đối với nhận thức của con người, sâu xa hơn nữa là khả năng làm thay đổi hoặc hủy diệt cả một nền văn minh.

Ngay cả tỷ phú Elon Musk, đồng sáng lập OpenAI, cũng là người tạo ra ChatGPT cũng gọi công nghệ này là "nguy hiểm".

Ông Musk đã khẳng định AI "nguy hiểm hơn nhiều so với vũ khí hạt nhân".

Theo vị tỷ phú Mỹ, AI là một trong những nguy cơ tiềm ẩn đáng lo ngại nhất cho sự phát triển của nhân loại. Ông đã tuyên bố rằng, mặc dù AI có thể mang lại nhiều lợi ích đáng kinh ngạc, song đồng thời cũng chứa đựng nhiều rủi ro tiềm ẩn đáng lo ngại.

Ông Musk cho rằng, giống như các xe hơi, máy bay và dược phẩm phải tuân theo tiêu chuẩn an toàn, việc phát triển AI cũng cần phải được quản lý bằng các quy định và quy tắc an toàn. Ông nhấn mạnh rằng, “Tôi nghĩ AI thực sự là mối đe dọa lớn hơn cho xã hội so với các phương tiện vận chuyển hay ngành dược”.

Ông Musk đã chia sẻ rằng, mặc dù các quy định có thể làm chậm tiến độ phát triển của AI, nhưng đó cũng có thể là một điều tốt để đảm bảo an toàn cho tương lai của nhân loại.

Ngay cả Giám đốc điều hành OpenAI Sam Altman cũng thừa nhận con người cuối cùng sẽ phải “làm chậm công nghệ này lại”, vì các chatbot AI đang phát triển nhanh chóng của họ sẽ "loại bỏ rất nhiều công việc hiện tại".

Tin tiêu điểm

Đừng bỏ lỡ

Công cụ trí tuệ nhân tạo giải quyết nhu cầu học tập đa dạng của sinh viên.

Singapore thận trọng sử dụng AI

GD&TĐ - Các trường đại học Singapore áp dụng cởi mở nhưng thận trọng với việc sử dụng trí tuệ nhân tạo (AI) trong giảng dạy và thực hành.
Vườn thực nghiệm sâm cau tại huyện Củ Chi (TPHCM) của nhóm nghiên cứu.

Nuôi cấy sâm cau bằng công nghệ mô

GD&TĐ - Các nhà khoa học Trung tâm Ươm tạo doanh nghiệp nông nghiệp công nghệ cao TPHCM đã nuôi cấy thành công giống sâm cau bằng công nghệ nuôi cấy mô.