Trí tuệ nhân tạo an toàn

Trí tuệ nhân tạo an toàn

Theo các nhà khoa học, họ muốn bảo đảm để các hệ thống trí tuệ nhân tạo và học máy không đưa ra những kết luận vội vàng, không chính xác – những kết luận có thể dẫn đến, chẳng hạn, những biểu hiện phân biệt chủng tộc hay bất bình đẳng giới.

3 định luật robot học

Các nhà khoa học cho rằng, trí tuệ nhân tạo ngày càng có ý nghĩa to lớn trong đời sống của chúng ta. Do vậy, cần bổ sung vào cách hiểu của trí tuệ nhân tạo những giá trị mà xã hội hiện nay coi là quan trọng.

Cho đến nay, người sử dụng bảo đảm để hệ thống trí tuệ nhân tạo không có những “suy nghĩ” tắc trách. Còn hiện giờ, các thuật toán có nhiệm vụ làm cho những “suy nghĩ” không mong đợi ấy không còn xuất hiện.

Các tác giả công trình nghiên cứu khẳng định, các doanh nghiệp sử dụng các thuật toán để tích hợp vào sản phẩm của họ, có thể chọn và loại trừ những “suy nghĩ” tắc trách của trí tuệ nhân tạo.

 

Trong bài báo công bố trên tạp chí “Science”, các nhà khoa học nhắc đến 3 định luật robot học, do nhà văn viễn tưởng khoa học Isaac Asimov (Mỹ) đề xuất vào đầu những năm 40 thế kỷ trước.

Trong thế giới mà robot phải phục vụ con người, những định luật này bảo đảm để robot không làm tổn thương con người. Những định luật của Asimov, theo các nhà khoa học, vẫn còn giá trị đến ngày nay.

Các nhà khoa học ở ĐH Massachusetts, ĐH Stanford (Mỹ) và ĐH Rio Grande del Sol (Brazil) đã đề xuất cấu trúc thuật toán có khả năng hỗ trợ người dùng kiểm soát sự an toàn và tính trung thực của trí tuệ nhân tạo.

“Nếu ai đó sử dụng thuật toán học máy, thì sẽ khó kiểm soát hoạt động của chương trình một cách đầy đủ” - nhà khoa học Philip Thomas (ĐH Massachusetts) cho biết như vậy. Đây là dự đoán về nguy cơ sai sót trong trường hợp hoạt động của xe tự lái, cũng như thiết bị tự động bơm insulin.

Các thuật toán mới khiến cho người sử dụng có thể áp đặt cho trí tuệ nhân tạo những chế tài liên quan đến an toàn hay công bằng.

Thay thế tiêu chí “chắc chắn” bằng “xác suất có nghĩa”

“Chúng tôi gọi thuật toán mới tạo thành là thuật toán Seldon; do liên quan đến nhân vật Hari Seldon trong truyện của Asimov – ông Thomas giải thích – Sử dụng thuật toán Seldon trong điều trị bệnh tiểu đường, chúng ta có thể xác định các trạng thái không mong đợi về chỉ số đường huyết thấp.

Chúng ta có thể ra lệnh cho thiết bị điều chỉnh hoạt động bơm insulin. Hành động để dễ dàng kiểm soát hơn đối với sự an toàn và trung thực của các thuật toán học máy ngày càng trở nên quan trọng trong bối cảnh trí tuệ nhân tạo ngày càng có ảnh hưởng đến cuộc sống của chúng ta”.

Các chuyên gia sáng tạo phần mềm mới cho học máy đưa ra 21 tiêu chí, theo đó các chương trình điện toán phải định nghĩa được tính trung thực và chân thật. Mục đích là để khách hàng, khi ứng dụng các thuật toán để tạo ra sản phẩm cụ thể nào đó, có thể điều chỉnh các thuật toán này cho phù hợp với nhu cầu của họ.

 

Mỗi người có thể định nghĩa hành vi không mong đợi của hệ thống theo cách khác nhau. Các luật robot cứng nhắc của Asimov có thể làm tê liệt hoạt động của robot, bởi chúng không biết chắc chắn có làm tổn thương con người hay không.

Các tác giả công trình nghiên cứu cho rằng có thể tránh được điều đó nếu chúng ta thay thế tiêu chí “chắc chắn” bằng “xác suất có nghĩa”.

Những thử nghiệm đối với các thuật toán mới được thực hiện để dự đoán điểm số trung bình của 43.000 sinh viên Brazil trên cơ sở kết quả kỳ thi tuyển sinh đầu vào.

Hóa ra, chương trình điện toán có thể hoàn thành nhiệm vụ và bỏ qua mọi tình huống “bẫy”, liên quan đến bất bình đẳng giới. Cuộc thử nghiệm tiếp theo cho thấy, chương trình có thể điều khiển công việc của thiết bị bơm insulin để giảm các trường hợp hạ đường huyết.

“Chúng tôi hi vọng, trên cơ sở các phương pháp của chúng tôi, các nhà nghiên cứu sẽ phát triển những thuật toán tinh tế hơn, được sử dụng trong những lĩnh vực từng bị xem là nguy hiểm đối với ứng dụng học máy” – Ông Thomas nói.

Theo Nauka

Tin tiêu điểm

Đừng bỏ lỡ