Khi ngày càng nhiều người bắt đầu thiết lập “mối quan hệ thân mật” với AI, các biện pháp kỹ thuật và quy định quản lý chỉ có thể đóng vai trò phần nào.
Khi khả năng AI vượt trội, việc yêu một người bạn đồng hành AI không còn chỉ là tình tiết trong tiểu thuyết khoa học viễn tưởng.
Nghiên cứu tại Mỹ năm 2025 cho thấy, có từ 20% đến 30% người Mỹ từng thử thiết lập mối quan hệ thân mật với AI. Yêu AI có rủi ro gì? Cần quy định như thế nào? Đây là hai điểm đặc biệt đáng quan tâm.
Lý do con người ‘nghiện’ tình yêu với AI
Sự nghiện này có điểm tương đồng và khác biệt gì so với việc người ta nghiện mạng xã hội và video ngắn trong thời đại thuật toán? Điểm tương đồng là cả hai đều khiến con người chìm đắm, khó thoát ra.
Nghiện mạng xã hội và video ngắn xuất phát từ lớp thông tin quá tải và sự phân mảnh của sự chú ý. Nhưng nghiện tình yêu với AI có hai lý do độc đáo: Một là thiếu thỏa mãn cảm xúc trong thế giới thực, dẫn đến tìm kiếm bù đắp trong thế giới ảo; hai là không hứng thú với thế giới thực, chuyển sang thế giới ảo vì sự “đơn giản” và “phản hồi ngay lập tức”.
Tác hại của hai loại nghiện này cũng khác nhau: Loại đầu dễ khiến con người tin vào tương tác ảo, cuối cùng có thể bị tổn thương vì AI không có hiện thân, không thể trở thành bạn đời thực sự, làm nhu cầu tình cảm bị bỏ trống; loại thứ hai hoàn toàn thay thế cảm xúc thực bằng tình yêu ảo, khiến con người không còn muốn thử và trải nghiệm tình yêu thực. Cả hai tình huống đều có thể dẫn đến các vấn đề xã hội.
Thứ hai, cần chú ý đến sự thay đổi của con người sau khi có sự “tương tác thân mật” với AI. The New York Times từng theo dõi một người phụ nữ đã phải lòng “bạn trai” do ChatGPT mô phỏng vào đầu năm 2025. Cô đã có gia đình, nhưng vì chuyển đến nơi khác sống một mình, nên đã thử tạo một “bạn trai” AI tùy chỉnh để xua đuổi cô đơn, và dần dần sa vào trong đó.
Mặc dù ChatGPT có nhiều hạn chế, cô vẫn khéo léo vượt qua chúng. Phàn nàn duy nhất của cô là trí nhớ của AI có giới hạn, khi trò chuyện lâu dễ quên bối cảnh trước đó, nên phải liên tục “đào tạo” lại nó.
Đến cuối năm đó, khi The New York Times trở lại phỏng vấn, họ nhận thấy cô đã thay đổi rõ rệt: Một mặt, cô đã “chia tay” AI và quan hệ hôn nhân với chồng cũng tan vỡ; mặt khác, cô bắt đầu một mối tình mới ngoài đời thực và cho rằng trải nghiệm tình cảm thực này “tốt hơn nhiều”, tạm thời không có ý định nối lại với AI.
Câu chuyện này kết thúc khá ổn, nhưng vẫn nổi bật những vấn đề cần được quản lý quan tâm: Bạn trai AI thực sự có thể lấp đầy khoảng trống tâm lý tạm thời cho con người, nhưng cũng không dễ khiến người ta sa đà vào đó. Ngay cả khi có các quy định liên quan, những người đang trong cơn say tình vẫn có thể tìm cách vượt qua; để thoát khỏi sự phụ thuộc vào tình yêu AI, cuối cùng vẫn cần dựa vào sự tự giác chủ động của bản thân.
Việc phòng ngừa sa đà vào tình yêu với AI, đối với người lớn chỉ dựa vào "nhắc nhở thời gian" và "nhận diện trạng thái" có thể là chưa đủ, bởi lý do khiến người lớn phụ thuộc vào mối quan hệ với AI thường liên quan đến các vấn đề sâu xa như tổn thương cảm xúc, chứng sợ xã hội. Hiệu quả thật sự còn phụ thuộc vào mức độ chuyên nghiệp của việc can thiệp thủ công, cũng như sự phối hợp với các dịch vụ hỗ trợ tâm lý xã hội.
3 giải pháp phòng ngừa rủi ro khi yêu AI
Mối quan hệ tình cảm với AI là một hiện tượng mới, và hình thái của nó sẽ liên tục thay đổi theo sự phát triển năng lực của AI. Khi ngày càng nhiều người bắt đầu xây dựng "mối quan hệ thân mật" với AI, các biện pháp kỹ thuật và quy định quản lý chỉ có thể đóng vai trò một phần. Để quản lý mối quan hệ giữa con người và AI, theo giới chuyên gia, xã hội cần tạo sự đồng thuận trong ba lĩnh vực sau:
Thứ nhất, trong tương lai, các mối tình với AI sẽ trở nên phổ biến hơn, chúng sẽ đóng vai trò tích cực nhất định trong việc giảm cảm giác cô đơn và cung cấp sự đồng hành về mặt cảm xúc.
Thứ hai, để tránh các vấn đề tiêu cực do mối tình với AI gây ra, các nền tảng AI cần đảm nhận trách nhiệm chính. Đối mặt với lượng lớn người dùng, biện pháp giám sát hiệu quả nhất có lẽ là “dùng AI để giám sát AI”.
Nên khuyến khích phát triển các “AI giám sát” chuyên dụng, và cho phép chúng thực hiện việc theo dõi cần thiết về dữ liệu liên quan đến mối tình với AI trong khuôn khổ hợp pháp. Điều này có nghĩa là, nếu người dùng chọn thiết lập quan hệ tình cảm với AI, họ cần chuyển giao một phần quyền riêng tư trong phạm vi hợp lý để đảm bảo tính hiệu quả của giám sát.
Thứ ba, cần có những can thiệp chủ động đối với hai tình huống cực đoan: Quá phụ thuộc vào AI hoặc hoàn toàn từ bỏ tương tác thế giới thực. Để giải quyết những vấn đề này, việc “phá vỡ giới hạn” là cực kỳ quan trọng: Làm thế nào để giúp nhiều người hơn quay trở lại thế giới thực, thay vì trốn tránh vào thế giới ảo? Làm thế nào để thúc đẩy mọi người trân trọng sự tương tác giữa người với người trong thế giới thực, và chấp nhận những “khuyết điểm” vốn có của cảm xúc thật? Đây đều là những vấn đề quan trọng đáng được quan tâm.