Geoffrey Hinton, còn được gọi là cha đỡ đầu của Trí tuệ nhân tạo (AI), đã từ chức ở Google để có thể công khai chỉ trích công nghệ do chính ông tạo ra.
Ông nói rằng ông đã hối tiếc về một phần công việc của cuộc đời mình và cảnh báo về AI mà con người sẽ có thể không kiểm soát được.
Geoffrey Hinton và hai sinh viên của ông tại Đại học Toronto vào năm 2012 đã tạo ra công nghệ cho phép những thuật toán deep learning và mạng thần kinh nhân tạo “học” kiến thức của thế giới bằng cách phân tích hàng nghìn hình ảnh, để máy móc hiểu như thế nào là bông hoa, trái táo, ô tô,… với mức độ chính xác đáng kinh ngạc. Công nghệ này trở thành nền tảng của các hệ thống Trí tuệ nhân tạo AI và cả thế giới đang nói đến.
Nhưng sau hơn một thập kỷ làm việc tại Google, Hinton tuyên bố rời công ty Google để có thể công khai chỉ trích công nghệ do chính ông tạo ra, theo New York Times.
Trong một cuộc phỏng vấn với tờ báo, Hinton nói rằng một phần trong anh hối tiếc về công việc của đời mình.
“Thật khó để biết làm thế nào bạn có thể ngăn chặn những kẻ xấu sử dụng nó cho mục đích xấu”, Geoffrey Hinton nói về sự tiến bộ của AI.
AI đã nhanh chóng trở thành một trong những chủ đề nóng nhất trong cả khoa học và chính trị, và trở thành một công cụ có giá trị.
Nhưng cái gì cũng có mặt trái của nó. AI đã được sử dụng để truyền bá thông tin sai lệch, đặc biệt là ảnh và video giả mạo.
“Ý tưởng rằng những thứ này thực sự có thể trở nên thông minh hơn con người là điều mà ít người có thể tin”, Hinton nói với tờ New York Times.
Hinton vẫn tin vào việc hệ thống Trí tuệ nhân tạo kém hơn bộ não con người ở vài khía cạnh, nhưng ở những khía cạnh khác, AI đã vượt qua trí tuệ con người. Thời điểm những tập đoàn công nghệ có những cải tiến về hệ thống AI, tiến sĩ Hinton bắt đầu tin rằng trí thông minh nhân tạo đang trở nên càng lúc càng nguy hiểm. Ông nói: “Hãy nhìn vào những gì diễn ra 5 năm về trước và những gì đang xảy ra đi. Hãy so sánh sự khác biệt và dự đoán tương lai nhờ vào những sai biệt đó. Điều đó khá đáng sợ.”
Theo Hinton, các hệ thống “AI” mới có thể phân tích nhiều dữ liệu đến mức chúng có thể tự dạy cho mình những hành vi khiến ngay cả những người tạo ra chúng cũng phải ngạc nhiên. Các hệ thống AI của Google đã phát các kỹ năng đã học được không được lập trình, chẳng hạn như tạo và thậm chí chạy mã của riêng chúng. Nói cách khác, chúng có thể dễ dàng phát triển ngoài tầm kiểm soát của con người. Hinton lo ngại điều này có thể mang đến cơ hội để phát triển các vũ khí tự động.
Việc Hinton từ chức khỏi Google có ý nghĩa quan trọng vì ông từng là người ủng hộ mạnh mẽ cho công nghệ AI. Tuy nhiên, quan điểm của ông đã thay đổi vào năm ngoái khi ông nhìn thấy sức mạnh của các hệ thống Generative AI do Google và OpenAI phát triển. Hinton tin rằng khi các công ty tiếp tục cải thiện hệ thống AI của họ, chúng sẽ ngày càng trở nên nguy hiểm.