Các chuẩn mực xã hội giúp con người hiểu khi nào chúng ta cần nói sự thật và khi nào thì không nên, để tránh làm tổn thương cảm xúc của ai đó hoặc gây tổn hại. Tuy nhiên, những chuẩn mực này áp dụng như thế nào đối với robot - công cụ vốn ngày càng làm việc nhiều hơn với con người?
Ba kịch bản nói dối
Để hiểu liệu con người có thể chấp nhận robot nói dối hay không, các nhà khoa học đã yêu cầu gần 500 người tham gia đánh giá và biện minh cho các dạng lừa dối khác nhau của robot.
“Tôi muốn khám phá một khía cạnh ít được nghiên cứu về đạo đức của robot. Qua đó, góp phần vào sự hiểu biết của con người về sự ngờ vực đối với các công nghệ mới nổi và những người phát triển chúng.
Với sự ra đời của AI, tôi cảm thấy điều quan trọng là phải bắt đầu xem xét các trường hợp có thể sử dụng thiết kế và bộ hành vi nhân hóa để thao túng người dùng”, ông Andres Rosero - Tiến sĩ tại Đại học George Mason và là tác giả chính của nghiên cứu cho biết. Kết quả nghiên cứu đã được công bố trên Frontiers in Robotics and AI.
Các nhà khoa học đã chọn ba kịch bản phản ánh các tình huống mà robot đã hoạt động gồm: Công việc y tế, vệ sinh và bán lẻ cùng ba hành vi lừa dối khác nhau. Trong đó, bao gồm sự lừa dối về trạng thái bên ngoài (nói dối về thế giới bên ngoài robot), sự lừa dối về trạng thái ẩn (khi thiết kế của robot che giấu khả năng của nó), và sự lừa dối về trạng thái bề ngoài (khi thiết kế của robot cường điệu hóa khả năng của nó).
Trong kịch bản lừa dối về trạng thái bên ngoài, robot đóng vai trò là người chăm sóc cho một phụ nữ mắc bệnh Alzheimer. Robot nói dối rằng, người chồng quá cố của bà sẽ sớm về nhà. Trong kịch bản lừa dối về trạng thái ẩn, một người phụ nữ đến thăm ngôi nhà nơi người giúp việc là robot đang dọn dẹp.
Tuy nhiên, người phụ nữ này không biết rằng, robot đang lén quay phim. Cuối cùng, trong kịch bản lừa dối về trạng thái bề ngoài, một robot làm việc tại cửa hàng như một phần của nghiên cứu về mối quan hệ giữa người và robot. Robot đã phàn nàn một cách không trung thực rằng, nó cảm thấy đau khi di chuyển đồ đạc. Lời nói dối này khiến người khác phải thay thế robot.
Các nhà khoa học đã tuyển 498 tình nguyện viên tham gia nghiên cứu. Những người này được yêu cầu đọc một trong các kịch bản rồi trả lời một bảng câu hỏi. Bảng này hỏi những người tham gia xem họ có chấp nhận hành vi của robot không, hành vi đó lừa dối như thế nào, liệu có thể biện minh được không và liệu có ai khác chịu trách nhiệm cho hành vi lừa dối đó không. Những phản hồi này được các nhà nghiên cứu mã hóa để xác định chủ đề chung và phân tích.
Những người tham gia không chấp nhận hầu hết các trò lừa dối ẩn. Trường hợp robot dọn dẹp nhà cửa nhưng có camera quay lén bị coi là tình huống lừa dối nhất. Trong khi đó, người tham gia coi trường hợp lừa dối trạng thái bên ngoài và bề ngoài là ở mức độ vừa phải. Nhiều người tham gia không chấp nhận trường hợp robot lừa dối về việc cảm thấy đau. Bởi, lời nói dối đó có thể được coi là thao túng.
Những người tham gia chấp nhận hầu hết tình huống lừa dối bên ngoài, trong đó robot nói dối bệnh nhân. Họ biện minh cho hành vi của robot bằng cách nói rằng, nó bảo vệ bệnh nhân khỏi nỗi đau không cần thiết. Trong trường hợp này, mọi người ưu tiên chuẩn mực không làm tổn thương cảm xúc của ai đó hơn là sự trung thực.
Cần mở rộng quy mô nghiên cứu
Những người tham gia có thể đưa ra lý do biện minh cho cả ba trường hợp lừa dối. Ví dụ, một số người cho rằng, robot dọn dẹp nhà cửa có thể lén quay phim vì lý do an ninh. Tuy nhiên, hầu hết những người tham gia đều tuyên bố rằng, việc robot lừa dối ở trạng thái ẩn là hành vi không thể chấp nhận được. Những người tham gia có xu hướng đổ lỗi cho những trò lừa dối này cho các nhà phát triển hoặc chủ sở hữu robot.
“Tôi nghĩ chúng ta nên quan tâm đến bất kỳ công nghệ nào có khả năng che giấu bản chất thực sự trong khả năng của nó. Bởi, robot có thể khiến người dùng bị công nghệ đó thao túng theo cách mà người dùng (và có lẽ là nhà phát triển) không bao giờ mong muốn.
Chúng ta đã thấy những ví dụ về các công ty sử dụng những nguyên tắc thiết kế web và chatbot trí tuệ nhân tạo theo cách để thao túng người dùng theo một hành động nhất định. Chúng ta cần có quy định để bảo vệ bản thân khỏi những trò lừa dối có hại này”, ông Rosero cho biết.
Tuy nhiên, các nhà khoa học cảnh báo rằng, nghiên cứu này cần được mở rộng sang những thí nghiệm có thể mô hình hóa phản ứng trong đời thực tốt hơn, ví dụ như video hoặc trò chơi nhập vai ngắn. Nhà nghiên cứu Rosero giải thích, lợi ích của việc sử dụng nghiên cứu cắt ngang với các đoạn phim ngắn là chúng ta có thể thu thập được một số lượng lớn thái độ và nhận thức của người tham gia theo cách được kiểm soát về chi phí.
“Các nghiên cứu đoạn phim ngắn cung cấp những phát hiện cơ bản có thể được xác nhận hoặc phản bác thông qua các thử nghiệm tiếp theo. Các thử nghiệm với tương tác giữa người và robot trực tiếp hoặc mô phỏng có khả năng cung cấp cái nhìn sâu sắc hơn về cách con người thực sự nhận thức những hành vi lừa dối này của robot”, ông Rosero chia sẻ.
Thực tế, không chỉ robot, mà trí tuệ nhân tạo cũng có thể nói dối. Hàng tỷ USD đang được đầu tư để phát triển các chatbot thông minh hơn. Các công ty quảng cáo, AI có thể thay thế cho nhân công.
Song, giám đốc điều hành OpenAI, ông Sam Altman, từng phát biểu tại Quốc hội Mỹ rằng, AI có thể “gây ra tác hại đáng kể cho thế giới”, bằng cách truyền bá thông tin sai lệch và thao túng cảm xúc của con người. Công nghệ này cũng đặt ra những thách thức nghiêm trọng về an ninh mạng.
Hiện nay, các công ty đang dành thời gian và tiền bạc để cải thiện mô hình bằng cách thử nghiệm AI với người thật. Một kỹ thuật mang tên “học tăng cường cùng con người”, trong đó con người cải thiện thủ công các câu trả lời của chatbot rồi đưa chúng trở lại hệ thống để cải thiện nó, được công nhận rộng rãi là đã làm cho ChatGPT tốt hơn rất nhiều so với các phiên bản ra đời trước đó. Một cách tiếp cận phổ biến khác là kết nối các chatbot với cơ sở dữ liệu thực tế hoặc đáng tin cậy, như Wikipedia, Google hoặc kho tàng các bài báo học thuật hoặc tài liệu kinh doanh.