Cân bằng trí tuệ nhân tạo

GD&TĐ - Mỹ, Anh và hơn 10 quốc gia khác đã công bố thỏa thuận về an toàn trí tuệ nhân tạo (AI).

Minh họa/INT
Minh họa/INT

Đây là thỏa thuận chi tiết đầu tiên về cách thức đảm bảo công nghệ AI được sử dụng một cách an toàn trước nguy cơ lừa đảo, đồng thời thúc đẩy các công ty công nghệ phải tạo ra các hệ thống AI an toàn ngay từ bước thiết kế.

18 quốc gia tham gia ký kết thỏa thuận thống nhất các công ty thiết kế và sử dụng AI cần phát triển cũng như triển khai công nghệ tiên tiến này theo cách giúp khách hàng, công chúng được an toàn, không bị lạm dụng. Điều quan trọng là các quốc gia nhất trí với ý tưởng rằng các hệ thống AI cần đặt sự an toàn lên hàng đầu.

Có thể thấy, từ khóa được lặp đi lặp lại trong thỏa thuận là an toàn. Lo ngại về an ninh, an toàn là chủ đề chính trong các cuộc thảo luận về AI từ lúc công nghệ này phát triển. AI đã đạt được nhiều tiềm năng song hành cùng thách thức.

Một trong số đó là việc sử dụng dữ liệu có đạo đức. Ngày càng nhiều doanh nghiệp tìm cách sử dụng dữ liệu để thu thập thông tin về khách hàng tiềm năng, gây ảnh hưởng đến tính cá nhân hóa và an toàn thông tin của người dùng.

Vấn đề trên càng nhức nhối hơn khi OpenAI phát hành ứng dụng AI ChatGPT vào cuối năm ngoái và được Microsoft hậu thuẫn. AI biến ChatGPT trở thành một trợ lý ảo đắc lực về mặt ngôn ngữ khi có khả năng nhận yêu cầu bằng văn bản và sau đó phản hồi bằng ngôn từ tự nhiên như một con người.

Khi ChatGPT ra đời, thế giới cảm thấy nhiều mối đe dọa. Riêng trong lĩnh vực giáo dục, ChatGPT được cho là tạo cơ hội cho phép học sinh, sinh viên gian lận.

Nhiều thử nghiệm chỉ ra ChatGPT có thể vượt qua nhiều bài kiểm tra chuẩn hóa quốc tế với điểm số đáng ấn tượng, đồng thời còn có thể viết bài luận về bất cứ chủ đề nào được người dùng yêu cầu. Nhiều quốc gia lập tức đã cấm sử dụng ChatGPT trong trường học. Ở nhiều lĩnh vực khác, ChatGPT được cho là có thể thay thế công việc của con người.

Không rõ liệu thỏa thuận trên có đủ sức thuyết phục để tạo ra thay đổi thực sự hay không. Bởi nó không mang tính ràng buộc và chủ yếu đưa ra các khuyến nghị chung chung như giám sát hành vi lạm dụng AI, bảo vệ dữ liệu... Thỏa thuận cũng không thể giải quyết các câu hỏi hóc búa xung quanh việc sử dụng AI phù hợp hoặc cách thu thập dữ liệu cung cấp cho các mô hình này.

Ngoài ra, thỏa thuận có thể cũng chưa tác động đến các công ty công nghệ bởi dựa theo thỏa thuận, họ được khuyến khích phát triển AI một cách có trách nhiệm. Nếu muốn tạo ra tác động thực tế, thỏa thuận này cần được cụ thể hóa và chế định hóa thành khuôn khổ pháp lý.

Từ đó cho thấy, sự “giằng xé” của các quốc gia khi thảo luận về trí tuệ nhân tạo. Bất kỳ quốc gia nào cũng muốn quản lý công nghệ này một cách an toàn nhưng không thể quá khắt khe đến mức kìm hãm sự phát triển của nó.

Vấn đề là làm thế nào để cân bằng giữa phát triển công nghệ và bảo vệ con người. Do vậy, thỏa thuận của 18 quốc gia giống như bước chân đầu tiên lên lớp băng mỏng. Các quốc gia ký kết phải thận trọng, tính toán kỹ lưỡng nhưng vẫn thể hiện sự cởi mở nhất định.

Nhìn chung, thỏa thuận là một bước tiến lớn, thể hiện sự chung tay và quyết tâm của thế giới nhằm làm chủ sự phát triển của AI. Bất kỳ nỗ lực toàn cầu nào nhằm tăng cường các biện pháp bảo vệ an toàn của con người trước công nghệ hiện đại đều là bước đi đúng đắn.

Tin tiêu điểm

Đừng bỏ lỡ