Theo QZ, sau khi có những rạn nứt nội bộ xung quanh dự án hợp tác cùng Lầu Năm Góc (có thể sử dụng trí thông minh nhân tạo như một công cụ giám sát), CEO Sundar Pichai của Google đã phát hành một bộ hướng dẫn đạo đức để quản lý việc sử dụng AI của công ty.
Các quy tắc, do CEO Sundar Pichai đặt ra khẳng định các thuật toán lý tưởng của Google AI mang lại lợi ích xã hội, không thiên vị, được kiểm tra an toàn, có trách nhiệm, riêng tư và khoa học nghiêm ngặt.
Pichai viết trên blog cá nhân của mình rằng: "Khi chúng tôi xem xét khả năng phát triển và sử dụng công nghệ AI, chúng tôi sẽ tính đến một loạt các yếu tố kinh tế, xã hội và sẽ tiến hành khi chúng tôi tin rằng lợi ích tổng thể có khả năng vượt quá rủi ro".
Nhưng bên cạnh những nguyên tắc đạo đức rộng rãi này, Google cũng khẳng định họ sẽ không phát triển các AI đặc biệt cho vũ khí cũng như các công cụ giám sát có thể vi phạm "các tiêu chuẩn được quốc tế đã được chấp nhận".
Google cũng có quy định chung rằng AI của họ sẽ không gây hại nhưng họ cũng khẳng định rằng sẽ tạo ra một hệ thống AI gây hại nếu xét thấy lợi ích mang lại nhiều hơn là rủi ro. Thật dễ dàng để thấy điều này trong các ứng dụng như xe ô tô tự lái (về mặt lí thuyết có thể dẫn đến tai nạn chết người trong những tình huống bất ngờ).
Pichai viết: "Chúng tôi nhận ra rằng công nghệ tiên tiến như vậyđặt ra những câu hỏi mạnh mẽ về việc sử dụng nó. Làm như thế nào AI được phát triển và sử dụng sẽ có tác động đáng kể đến xã hội trong nhiều năm tới".