WASHINGTON (AP) – Trong hàng loạt những hình ảnh về các ngôi nhà bị đánh bom hay đường phố bị tàn phá ở Gaza, có một số hình ảnh nổi bật với sự kinh hoàng tột độ: Những đứa trẻ bị bỏ rơi, mình mẩy nhuốm đầy máu.
Với hàng triệu lượt xem trên các nền tảng trực tuyến, những hình ảnh này là những hình ảnh giả (deepfake) được tạo ra bằng trí tuệ nhân tạo (AI). Nếu để ý kỹ, chúng ta có thể thấy các manh mối chẳng hạn như ngón tay cong kỳ lạ hoặc đôi mắt lấp lánh ánh sáng không tự nhiên.
Tuy nhiên, sự phẫn nộ mà những hình ảnh giả đó tạo ra lại là thật, rất chân thật.
Những hình ảnh từ cuộc chiến Israel-Hamas đã minh họa một cách sống động và đau đớn cho nguy cơ AI bị sử dụng như một công cụ tuyên truyền, tạo ra những hình ảnh giả sống động như thật.
Kể từ khi chiến tranh nổ ra từ tháng trước, những hình ảnh được chỉnh sửa kỹ thuật số đã lan truyền trên mạng xã hội, và đã được sử dụng để đưa ra những tuyên bố sai lệch về trách nhiệm đối với thương vong hoặc để đánh lừa mọi người về những hành động tàn bạo chưa từng xảy ra.
Dù hầu hết các tuyên bố sai trái lan truyền trên mạng về cuộc chiến không phải do AI tạo ra, nhưng những tiến bộ công nghệ đang xuất hiện với tần suất ngày càng tăng mà lại ít được giám sát. Điều đó khiến cho nguy cơ AI trở thành một dạng vũ khí khác trở nên rõ ràng hơn, và vẽ ra viễn cảnh ban đầu về những gì sẽ xảy ra trong các cuộc xung đột, bầu cử và các sự kiện lớn khác trong tương lai.
Jean-Claude Goldenstein, Giám đốc điều hành của CREOpoint, một công ty công nghệ có trụ sở tại San Francisco và Paris sử dụng AI để đánh giá tính hợp lệ của các khiếu nại trực tuyến, cho biết: “Mọi chuyện sẽ trở nên tồi tệ hơn – rất tồi tệ –trước khi chúng trở nên tốt hơn.” CREOpoint đã tạo ra một cơ sở dữ liệu về các hình ảnh deepfake có tính lan truyền cao nhất xuất hiện từ Gaza. Ông nói: “Hình ảnh, clip và âm thanh: với AI tổng quát, đây sẽ là một bước tiến mà quý vị chưa từng thấy.”
Trong một số trường hợp, những hình ảnh từ các cuộc xung đột hoặc thảm họa khác đã được tái sử dụng và lan truyền đi như mới. Một số trường hợp khác, các chương trình AI tổng quát (generative AI) đã được sử dụng để tạo ra hình ảnh từ đầu, chẳng hạn như hình ảnh một em bé khóc giữa đống đổ nát của vụ đánh bom đã lan truyền trong những ngày đầu của cuộc xung đột.
Các thí dụ khác về hình ảnh do AI tạo ra bao gồm những đoạn clip về các cuộc tấn công bằng hỏa tiễn của Israel, hoặc xe tăng lăn bánh qua các khu dân cư đổ nát, hoặc các gia đình đang tìm kiếm những người sống sót trong đống hoang tàn.
Trong những ngày đầu của cuộc chiến đẫm máu, những người ủng hộ cả Israel và Hamas đều cáo buộc đối phương đã hành hạ trẻ em và trẻ sơ sinh. Hàng loại hình ảnh deepfake về những đứa trẻ đang khóc đã được đưa ra làm ‘bằng chứng’ và nhanh chóng được coi là bằng chứng.
Imran Ahmed, Giám đốc của Center for Countering Digital Hate, một tổ chức vô vụ lợi chuyên theo dõi các thông tin sai lệch từ chiến tranh, cho biết những người tuyên truyền tạo ra những hình ảnh như vậy rất thuần thục nhắm vào những xung động và lo lắng sâu sắc nhất của mọi người. Cho dù hình ảnh về đứa trẻ sơ sinh đó là deepfake hay hình ảnh thực tế từ một cuộc xung đột khác, thì tác động cảm xúc đối với người xem là như nhau.
Hình ảnh càng đáng sợ thì người xem càng dễ nhớ và chia sẻ nó, vô tình làm lan truyền thông tin sai lệch rộng hơn. Nội dung sai lệch tương tự do AI tạo ra bắt đầu lan truyền sau khi chiến sự Nga-Ukraine nổ ra vào năm 2022. Xuất hiện một đoạn clip giả cho thấy Tổng thống Ukraine Volodymyr Zelenskyy ra lệnh cho người Ukraine đầu hàng.
Mỗi cuộc xung đột hoặc mùa bầu cử mới đều mang đến những cơ hội mới cho những kẻ phát tán thông tin sai lệch tận dụng những tiến bộ mới nhất của AI. Điều đó khiến nhiều chuyên gia AI và khoa học gia chính trị cảnh báo về những rủi ro trong năm tới, khi một số quốc gia tổ chức các cuộc bầu cử lớn, bao gồm Hoa Kỳ, Ấn Độ, Pakistan, Ukraine, Đài Loan, Indonesia và Mexico.
Các nhà lập pháp lưỡng đảng ở Washington cũng đã cảnh báo về nguy cơ AI và mạng xã hội có thể được sử dụng để truyền bá những lời dối trá tới cử tri Hoa Kỳ. Tại một phiên điều trần gần đây về sự nguy hiểm của công nghệ deepfake, DB Gerry Connolly, Đảng Dân Chủ-Virginia, cho biết Hoa Kỳ cần phải đầu tư tài trợ cho việc phát triển các công cụ AI được thiết kế để chống lại các AI khác.
Trên khắp thế giới, một số startup công nghệ đang nghiên cứu các chương trình mới có thể phát hiện các sản phẩm deepfake, gắn hình mờ vào hình ảnh để chứng minh nguồn gốc của chúng hoặc quét văn bản để tìm ra những tuyên bố, suy đoán nào có thể đã được chèn vào bởi AI.
“Làn sóng tiếp theo trong lĩnh vực AI sẽ là: Làm cách nào chúng ta có thể xác minh nội dung đang lưu hành. Làm thế nào để phát hiện thông tin sai lệch, làm sao để phân tích văn bản xem nó có đáng tin cậy hay không?” Maria Amelie, đồng sáng lập của Factiverse, một công ty Na Uy đã tạo ra một chương trình AI có thể quét nội dung để tìm những điểm không chính xác hoặc sai lệch do các chương trình AI khác soạn ra.
David Doermann, giáo sư tại Đại học Buffalo, cho biết để có thể ứng phó tốt trước các thách thức chính trị và xã hội do thông tin sai lệch về AI đặt ra, sẽ cần có cả công nghệ tốt hơn và các quy định chặt chẽ hơn, các tiêu chuẩn mà ngành tự nguyện đặt ra, cũng như đầu tư sâu rộng vào các chương trình giúp người dùng Internet biết cách để phân biệt thật giả.
Nguyên Hòa biên dịch
Nguồn: “Fake babies, real horror: Deepfakes from the Gaza war increase fears about AI’s power to mislead” được đăng trên trang APNews.com.
Gửi ý kiến của bạn