Theo The Verge, một phần mềm mới xuất hiện có khả năng sử dụng công nghệ AI để chuyển bất cứ hình chụp nào của phụ nữ thành ảnh khoả thân.
DeepNude sử dụng công nghệ deepfake để tạo ra hình ảnh giả. Phần mềm này hiện miễn phí trên hệ điều hành Windows, với phiên bản cao cấp cho ra chất lượng ảnh tốt hơn được rao bán giá 99 USD.
DeepNude hoạt động tốt nhất với ảnh có độ phân giải cao hoặc đối tượng trong hình đã mặc sẵn quần áo hở hang. Tuy nhiên, ảnh khoả thân tạo ra vẫn có chất lượng thấp, với phần da bị làm mờ và nhiều lỗi pixel.
Hình ảnh được tạo ra từ phần mềm DeepNude. Ảnh:The Verge. |
Mặc dù những tranh cãi về deepfake thường xoay quanh mối lo ngại sai lệch thông tin chính trị hoặc tuyên truyền, nhưng nguy cơ lạm dụng tình dục hình ảnh phụ nữ mới là vấn đề lớn nhất.
Hình ảnh giả có thể được sử dụng với mục đích trả thù, quấy rối và đe doạ phụ nữ. Thậm chí, có những diễn đàn nơi nam giới trả tiền để tạo ra ảnh khoả thân của đồng nghiệp, bạn bè hoặc thành viên gia đình. Các công cụ như DeepNude giúp họ dễ dàng thực hiện ý đồ một cách riêng tư.
Đáng chú ý, ứng dụng này không có khả năng tạo ra hình ảnh khoả thân của nam giới. Nếu bạn cung cấp cho phần mềm ảnh một người đàn ông, nó chỉ đơn giản thêm vào bộ phận sinh dục nữ.
Người dùng có thể bỏ 99 USD để có chất lượng hình ảnh tốt hơn. Ảnh:The Verge. |
Theo Motherboard, người tạo ra DeepNude tự nhận mình là “Alberto”. Anh cho biết được truyền cảm hứng từ những cuốn truyện tranh cũ, với công nghệ X-quang có thể nhìn xuyên quần áo.
Alberto nói đã xem xét khả năng gây hại của phần mềm nhưng xác định đó không phải vấn đề lớn. “Tôi tự nhủ rằng công nghệ này luôn có sẵn trong đầu mọi người. Nếu tôi không làm DeepNude, người khác cũng sẽ làm trong vài năm tới”, anh tuyên bố.
Tuy nhiên, Alberto vẫn tỏ ra lo lắng về các vấn đề pháp lý tiềm tàng. Thoả thuận cấp phép của DeepNude ghi rõ: “Mọi hình ảnh tạo ra đều là giả và ứng dụng chỉ phục vụ mục đích giải trí”. Điều này không đúng với cách DeepNude đang được tiếp thị và rao bán trên mạng.
Các luật sư cho biết việc tạo ra ảnh khoả thân bằng AI có thể cấu thành tội phỉ báng, đặc biệt khi đối tượng là trẻ vị thành niên.
Chính phủ các nước đang bắt đầu xem xét tác hại tiềm ẩn do deepfake gây ra. Trong thời gian chờ đợi, những ứng dụng như DeepNude sẽ càng phổ biến và được cải tiến liên tục, mang đến nhiều nguy cơ.