Trước cuộc bầu cử ở Indonesia vào ngày 14/2, một đoạn video ghi lại cảnh cựu tổng thống Indonesia Suharto ủng hộ đảng chính trị mà ông từng chủ trì đã được lan truyền rộng rãi. Trong khi đó, ông Suharto thực ra đã qua đời vào năm 2008, hưởng thọ 86 tuổi.
Video deepfake do AI tạo ra sao chép khuôn mặt và giọng nói của ông đã thu hút được 4,7 triệu lượt xem chỉ riêng trên nền tảng X. Và đây không phải là sự cố xảy ra một lần.
Ở Pakistan, một trò lừa đảo sâu sắc về cựu thủ tướng Imran Khan đã xuất hiện xung quanh các cuộc bầu cử quốc gia. Trong khi đó, ở Mỹ, cử tri ở New Hampshire đã nghe thấy một bản tin giả về việc Tổng thống Joe Biden yêu cầu họ không bỏ phiếu trong cuộc bầu cử sơ bộ tổng thống.
Việc làm giả mạo các chính trị gia ngày càng trở nên phổ biến, đặc biệt là khi năm 2024 được xem là năm bầu cử toàn cầu lớn nhất trong lịch sử.
Được biết, ít nhất 60 quốc gia và hơn 4 tỷ người sẽ bỏ phiếu bầu lãnh đạo trong năm nay, điều này khiến deepfake trở thành vấn đề đáng quan ngại.
Sự gia tăng của rủi ro deepfake trong bầu cử
Theo báo cáo của công ty xác minh dữ liệu Sumsub, số lượng deepfake trên toàn thế giới đã tăng gấp 10 lần từ năm 2022 đến năm 2023. Chỉ riêng ở khu vực châu Á-Thái Bình Dương, deepfake đã tăng 1.530% trong cùng thời kỳ.
Phương tiện truyền thông trực tuyến, bao gồm các nền tảng xã hội và quảng cáo kỹ thuật số, đã chứng kiến tỷ lệ gian lận danh tính tăng mạnh nhất ở mức 274% trong khoảng thời gian từ 2021 đến 2023. Các dịch vụ chuyên nghiệp, chăm sóc sức khỏe, vận tải và trò chơi điện tử cũng nằm trong số các ngành bị ảnh hưởng bởi gian lận danh tính.
Simon Chesterman, giám đốc cấp cao về quản trị AI tại AI Singapore cho biết, châu Á chưa sẵn sàng giải quyết vấn đề deepfake trong các cuộc bầu cử về mặt quy định, công nghệ và giáo dục.
Trong Báo cáo về mối đe dọa toàn cầu năm 2024, công ty an ninh mạng Crowdstrike đã báo cáo rằng với số lượng cuộc bầu cử dự kiến trong năm nay, một số bên rất có khả năng tiến hành các chiến dịch thông tin sai lệch hoặc thông tin sai lệch để gieo rắc sự gián đoạn.
Tuy nhiên, hầu hết các tác phẩm deepfake vẫn sẽ được tạo ra bởi các tác nhân ở các quốc gia tương ứng.
Carol Soon, nhà nghiên cứu chính và người đứng đầu bộ phận văn hóa và xã hội tại Viện Nghiên cứu Chính sách ở Singapore cho biết, các tác nhân trong nước có thể bao gồm các đảng đối lập và đối thủ chính trị hoặc những người cánh hữu và cánh tả.
Mối nguy hiểm từ deepfake
Ở mức tối thiểu, deepfake gây ô nhiễm hệ sinh thái thông tin và khiến mọi người khó tìm thấy thông tin chính xác hoặc hình thành ý kiến có căn cứ về một đảng hoặc ứng cử viên.
Ông Chesterman cho biết, các cử tri cũng có thể bị một ứng cử viên cụ thể loại bỏ nếu họ thấy nội dung về một vấn đề tai tiếng được lan truyền rộng rãi trước khi chúng bị vạch trần là giả mạo. “Mặc dù một số chính phủ có các công cụ (để ngăn chặn tin giả trực tuyến), mối lo ngại là điều này vẫn sẽ gây hậu quả nghiêm trọng”, ông cho biết.
Adam Meyers, người đứng đầu các hoạt động chống thông tin tiêu cực tại CrowdStrike cho biết deepfake cũng có thể gợi lên sự thiên kiến xác nhận ở mọi người: “Ngay cả khi trong thâm tâm họ biết điều đó không đúng, nếu đó là thông điệp họ muốn và điều họ muốn tin vào thì họ sẽ không để điều đó trôi qua”, ông cho biết.
Ai phải chịu trách nhiệm?
Ông Chesterman cho biết, hiện nay người ta nhận ra rằng các nền tảng truyền thông xã hội cần phải đảm nhận nhiều trách nhiệm hơn vì vai trò gần như công khai của chúng.
Vào tháng 2, 20 công ty công nghệ hàng đầu bao gồm Microsoft, Meta, Google, Amazon, IBM cũng như công ty khởi nghiệp trí tuệ nhân tạo OpenAI và các công ty truyền thông xã hội như Snap, TikTok và X đã công bố cam kết chung nhằm chống lại việc sử dụng AI để lừa đảo trong cuộc bầu cử năm nay.
Hiệp định công nghệ được ký kết là bước quan trọng đầu tiên, nhưng hiệu quả của nó sẽ phụ thuộc vào việc triển khai và thực thi. Với việc các công ty công nghệ áp dụng các biện pháp khác nhau trên nền tảng của họ, cần có một cách tiếp cận đa hướng.
Các công ty công nghệ cũng sẽ phải rất minh bạch về các loại quyết định được đưa ra, chẳng hạn như các loại quy trình được đưa ra.
Nhưng ông Chesterman cho rằng cũng không hợp lý khi mong đợi các công ty tư nhân thực hiện những chức năng cơ bản là công cộng. Theo ông, việc quyết định nội dung nào được phép xuất hiện trên mạng xã hội là một quyết định khó thực hiện và các công ty có thể mất nhiều tháng để quyết định.
Để đạt được mục tiêu này, Liên minh Chứng minh và Xác thực Nội dung (C2PA) - một tổ chức phi lợi nhuận - đã giới thiệu thông tin xác thực kỹ thuật số cho nội dung, sẽ hiển thị cho người xem thông tin đã được xác minh, chẳng hạn như thông tin của người sáng tạo, thông tin đó được tạo ở đâu và khi nào, cũng như liệu nó có mang tính tổng quát hay không.
Các công ty thành viên của C2PA bao gồm Adobe, Microsoft, Google và Intel.
OpenAI đã thông báo rằng họ sẽ triển khai thông tin xác thực nội dung C2PA cho các hình ảnh được tạo bằng sản phẩm DALL·E 3 vào đầu năm nay.
Trong một cuộc phỏng vấn với Bloomberg House tại Diễn đàn Kinh tế Thế giới (WEF) vào tháng 1, người sáng lập và Giám đốc điều hành OpenAI Sam Altman cho biết công ty “khá tập trung” vào việc đảm bảo công nghệ của mình không bị sử dụng để thao túng các cuộc bầu cử.
Ông Adam Meyers đã đề xuất thành lập một thực thể kỹ thuật phi lợi nhuận, lưỡng đảng với nhiệm vụ duy nhất là phân tích và xác định các tác phẩm deepfake.
“Sau đó, công chúng có thể gửi cho họ nội dung mà họ nghi ngờ bị thao túng…Nó không phải là điều dễ hiểu nhưng ít nhất cũng có một số loại cơ chế mà mọi người có thể dựa vào”, ông cho biết.
Nhưng cuối cùng, mặc dù công nghệ là một phần của giải pháp nhưng phần lớn nó lại thuộc về người dùng.
Công chúng cần cảnh giác hơn, bên cạnh việc kiểm tra tính xác thực khi có điều gì đó rất đáng ngờ, người dùng cũng cần kiểm tra tính xác thực của những thông tin quan trọng, đặc biệt là trước khi chia sẻ thông tin đó với người khác.