Nhưng sau cuộc bầu cử tổng thống Mỹ ngày 3/11 và cuộc bạo động tại tòa nhà quốc hội Mỹ ngày 6/1, chính phủ các nước và nền tảng mạng xã hội đang xúc tiến truy quét nội dung sai lệch. Trí tuệ nhân tạo (AI) được hy vọng đóng góp lớn cho nỗ lực trên.
Công ty đi đầu thử nghiệm AI
Mối lo ngại trước vấn nạn tin giả là có thật. Cuộc tấn công vào tòa nhà quốc hội Mỹ là ví dụ về việc thông tin sai lệch được lan truyền trên mạng ảo có thể thúc đẩy người dân hành động bạo lực ngoài thế giới thực.
Sau cuộc bạo động, Facebook và Twitter đã chặn lượng lớn tài khoản được xác định là thủ phạm hoặc lan truyền thông tin sai lệch.
Vụ việc đặt ra câu hỏi thông tin sai lệch, giả mạo có thể được phát hiện nhanh đến mức nào trên Internet? Các công ty truyền thông xã hội chủ yếu sử dụng sức người để điều hành phần lớn việc truy vết và loại bỏ tin tức giả mạo.
Nhưng hàng tỷ bài đăng mỗi ngày là khối lượng công việc quá lớn đối với người thường. Tự động hóa là cách tiếp cận khả thi hơn, đồng nghĩa phụ thuộc nhiều hơn vào AI.
Tại Anh, Logical là công ty đi đầu sử dụng AI để chống lại tin tức giả mạo. Giải pháp này giúp phân loại những nội dung được nhận định là tin giả hoặc tin sai lệch trước khi người dùng có thể đọc được. Nó có sẵn dưới dạng ứng dụng dành cho thiết bị di động và chương trình bổ trợ trên trình duyệt Chrome.
Anil Bandhakavi, người đứng đầu bộ phận Sáng kiến khoa học tại Logical cho biết cách tiếp cận thông tin theo dạng kết hợp là lợi thế của Logical so với các đối thủ cạnh tranh.
“Phương pháp tiếp cận của chúng tôi gồm ba hướng là nguồn gốc của nội dung, chính nội dung đó và siêu dữ liệu liên quan đến nội dung để cung cấp thông tin toàn diện, bổ sung và xác thực được nội dung”, ông Bandhakavi cho biết.
Từ quan điểm kỹ thuật, công ty sử dụng học máy (machine learning), lập trình ngôn ngữ tư duy (NLP), lý thuyết mạng, biểu đồ kiến thức để tự động xác định và phân loại số lượng lớn nội dung đáng ngờ. Nó cũng phụ thuộc vào các chuyên gia để kiểm tra thuật toán, xây dựng thuật toán và phát triển nâng cao. Các chuyên gia cũng thiết lập ngôn ngữ tự nhiên để hệ thống xác định độ tin cậy của nội dung.
Công nghệ và kỹ thuật AI được sử dụng trong một số giai đoạn của thuật toán Logical. Công ty sử dụng kỹ thuật học sâu (deep learning) để tăng cường khả năng hiểu nghĩa văn bản và các nội dung khác. Ngoài hiểu ngôn ngữ, thuật toán cũng phải theo dõi được nguồn gốc của nội dung, các nền tảng nó được lan truyền.
Bandhakavi cho biết: “Công nghệ được thiết lập để hiểu bối cảnh mà thông tin sai lệch được chèn vào và cách nó lan truyền trên mạng xã hội, Internet hoặc phương tiện truyền thông xã hội. Công nghệ này cũng nắm bắt cộng đồng và người dùng sử dụng tin tức giả và thông tin sai lệch”.
Thách thức đặt ra
Joel Mercer, phụ trách thiết kế sản phẩm tại Logical, đánh giá khó khăn cơ bản là tìm ra lỗ hổng trong thông tin sai lệch. Vì vậy, Logical phải thu thập vô số tín hiệu khác nhau xung quanh một nội dung đáng nghi, kết hợp phân tích kỹ thuật về nội dung và tài khoản đăng tải.
Thách thức khác là ngôn ngữ mạng liên tục thay đổi. Internet là “suối nguồn” cho những ý tưởng mới, từ ngữ mới. Điều này yêu cầu Logical thường xuyên xây dựng lại mô hình ngôn ngữ cho thuật toán. Tuy nhiên, điều đó chưa đủ để đảm bảo độ chính xác tuyệt đối cho công nghệ này.
Bandhakavi cho biết: “Chỉ nhìn vào nội dung, nguồn gốc của nó không thể cung cấp bức tranh đầy đủ về một nội dung bất kỳ. Logical nhìn xa hơn hai khía cạnh này khi lập mô hình rất nhiều siêu dữ liệu và tiến hành phân tích mạng. Các chuyên gia trong công ty cũng đã giúp không ngừng cải tiến mô hình”.
Sở dĩ các chuyên gia là quan trọng vì con người kiểm tra các mô hình hoạt động của AI trên tin tức và cập nhật các xu hướng ngôn ngữ mới trên Internet cho thuật toán. Con người cũng cung cấp kho kiến thức quý giá, liên tục thay đổi theo ngày cho các mô hình nhân tạo.
Bandhakavi cũng đánh giá AI có thể trở nên rất lạc hậu nếu không hiểu được sự phát triển của nội dung. Vì vậy, thông tin đầu vào từ các chuyên gia luôn quan trọng và hữu ích. Phía công ty chưa triển khai hoàn toàn dựa vào AI mà kết hợp công nghệ với trí thông minh của con người, tận dụng nguồn nhân lực hiện có.
Công nghệ còn tiềm ẩn rủi ro
Theo đánh giá nội bộ, hệ thống của Logical làm việc chính xác khoảng 90%. Nói cách khác, nó có thể xác định nhầm tin thật là tin giả khoảng 5 trong 100 lần quét. Công nghệ này là không hoàn hảo nhưng Logical khẳng định sẽ không ngừng phát triển, cải tiến và đầu tư vào AI.
Trong cuộc chiến chống tin giả, phần mềm của Logical luôn nằm “ngoài tiền tuyến”. Tại cuộc bầu cử tổng thống Mỹ năm 2020, Logical đã làm việc với ủy ban bầu cử tại một bang chiến trường lớn để đẩy lùi tin giả. Công ty cũng hợp tác với một số nền tảng truyền thông xã hội lớn nhưng điều này được giữ bí mật.
Người dùng Facebook và Twitter có thể đã nhiều lần chứng kiến những nội dung bị báo cáo sai phạm nhưng những thông tin này chưa đủ ngăn chặn làn sóng dữ liệu giả mạo.
Để những thông tin sai lệch không “bám rễ” trong nhận thức của người dùng mạng xã hội, phần mềm chống tin giả phải làm việc nhanh chóng, ngăn chặn thông tin xấu trước khi nó có thể đến tay người dùng.
Công nghệ này có thể nhắc nhở người dùng tin tức nào là giả mạo. Nhưng để làm được điều này, các nhà khoa học đang nghiên cứu điều chỉnh nội dung lời khuyên mà AI đưa ra phù hợp với thực tế xã hội để người dùng dễ dàng chấp nhận.
Cuộc chiến chống lại tin tức giả mạo và thông tin sai lệch hiện đang rất sôi động nhưng không bao giờ có giải pháp hoặc cách ngăn chặn hiệu quả 100%. Con người không thể không mắc sai lầm, đồng nghĩa hệ thống AI xác định tin giả khó có thể chính xác tuyệt đối.
Nhưng các nhà khoa học tin rằng, với đủ thời gian, công nghệ và sự kiên nhẫn, con người có thể tạo ra các hệ thống AI ngăn chặn việc lan truyền thông tin gây tổn hại, giảm thiểu thiệt hại từ chúng.
Đánh giá tác hại của tin giả lên đời sống thực, công nghệ dùng AI đẩy lùi thông tin sai lệch sẽ là “mảnh đất màu mỡ” cần được khai phá trong tương lai.