Cần có đạo luật robot trong kỷ nguyên A.I

GD&TĐ - Nhiều thập kỷ sau khi Isaac Asimov (bậc thầy của khoa học viễn tưởng) viết ra các định luật tiền đề về robot, thì đến nay vai trò của chúng ngày càng lớn trong cuộc sống của chúng ta, đòi hỏi một bộ quy tắc mới thật triệt để, theo chuyên gia về pháp lý và A.I Frank Pasquale - giảng viên Luật tại Đại học Maryland, cảnh báo.

Thế giới đã thay đổi kể từ năm 1942, khi nhà khoa học viễn tưởng Asimov viết ra ba quy tắc về robot
Thế giới đã thay đổi kể từ năm 1942, khi nhà khoa học viễn tưởng Asimov viết ra ba quy tắc về robot

Thế giới đã thay đổi nhiều kể từ khi nhà văn khoa học viễn tưởng Asimov đặt ra quy tắc căn bản của robot vào năm 1942, bao gồm luật không bao giờ cho phép chúng gây hại tới con người và các máy tính cũng như thuật toán hiện đại ngày nay đòi hỏi chúng ta cập nhật các biện pháp mới.

Theo Pasquale, bốn quy tắc mới lấy cảm hứng từ cơ sở pháp lý nên được áp dụng cho robot và A.I trong cuộc sống hàng ngày của chúng ta. “Đầu tiên là robot nên chỉ là lực lượng hỗ trợ, bổ sung thay vì thay thế cho các chuyên gia” - Pasquale trao đổi với truyền thông bên lề một hội nghị về robot tại Học viện Khoa học Giáo hoàng Vatican vừa qua - “Thay vì có một bác sĩ robot, bạn nên hy vọng rằng, bạn có một bác sĩ thực sự hiểu cách A.I hoạt động và nhận được lời khuyên thực sự tốt từ A.I nhưng bác sĩ là người cuối cùng đưa ra quyết định nên làm gì và không nên làm gì”.

“Thứ hai là chúng ta cần phải ngăn chặn các cuộc đua vũ khí robot. Hiện tại, có rất nhiều người đầu tư vào robot chiến tranh, robot quân sự, robot cảnh sát…”. Pasquale nhấn mạnh, điều quan trọng là bất kỳ khoản đầu tư nào vào robot quân sự hoặc A.I phải tuân thủ những nguyên tắc không phản lại con người.

“Điều đáng nói, các nhà đầu tư đang phung phí tiền bạc để theo đuổi mục đích cá nhân nhằm thiết lập một đội quân robot của riêng mình, nhưng họ không hiểu rằng đối thủ cũng đang âm thầm xây dựng lực lượng robot đối kháng”.

Quy tắc thứ ba và cũng là quy tắc gây tranh cãi nhất, là không được tạo ra robot hay A.I mang hình người, theo Pasquale nói, trích dẫn ví dụ về một trợ lý Google có tên là Duplex sẽ gọi mọi người để xác nhận đặt phòng ở khách sạn mà không cho họ biết rằng họ đang nói chuyện với máy tính. “Phản ứng dữ dội xảy ra ngay lập tức bởi vì mọi người nghĩ rằng Google đang cố gắng biến máy móc của họ thành con người và tôi nghĩ rằng nguyên tắc làm giả là quan trọng nhất, rằng chúng ta không nên làm giả loài người”, ông Pasquale nói.

Robot có thể trông giống người chỉ khi nó hoàn toàn cần thiết cho nhiệm vụ được giao phó, chẳng hạn như “robot chăm sóc hoặc robot tình dục”, theo Pasquale cho biết.

Luật cuối cùng là bất kỳ robot hay A.I nào cũng phải được quy cho hoặc sở hữu bởi một người hoặc một nhóm người bởi vì chúng ta biết cách trừng phạt con người chứ không biết cách trừng phạt máy móc theo luật pháp.

Điều mà ta phải tránh bằng mọi giá là công nghệ hai cấp, như đề xuất của Boeing cho máy bay 737-MAX của họ, thứ đã bị ngưng hoạt động sau khi hàng trăm người chết trong hai vụ tai nạn do lỗi cảm biến đến từ phần mềm, ông Pasquale cho biết.

“Một phần của những gì luật pháp phải làm là chỉ ra một số quy ước sẽ không được cho phép, chúng ta sẽ nói rằng chúng ta có một tiêu chuẩn bay, đó là một tiêu chuẩn duy nhất chứ không có chuyện phải tìm kiếm xem Ryanair, American Airlines hay Lufthansa đã mua cảm biến phụ hay chưa để làm theo, bởi vì đó thực sự điên rồ”, ông Pasquale nêu quan điểm.

Theo AFP

Tin tiêu điểm

Đừng bỏ lỡ

Rosemarie Dehesa thường đăng video về việc cô ăn nhiều loại thực phẩm. Ảnh: Rosemarie Martin Dehesa/CNN

Lo ngại trước xu hướng mukbang

GD&TĐ - Từ 'mukbang' bắt nguồn từ sự kết hợp của các từ tiếng Hàn 'meokda', có nghĩa là ăn, và 'bangsong', có nghĩa là phát sóng.

Giới trẻ Trung Quốc bình thường hóa ly hôn như hẹn hò. Ảnh: Edition.cnn.com

Bùng nổ chụp ảnh... ly hôn

GD&TĐ - Nếu tỷ lệ kết hôn ở Trung Quốc đang ngày càng giảm mạnh thì tỷ lệ ly hôn lại gia tăng nhanh.

Minh họa/INT

Sốt mò

GD&TĐ - Sốt mò là bệnh truyền nhiễm cấp tính thuộc nhóm C trong Luật Phòng chống bệnh truyền nhiễm.