Theo các chuyên gia của hãng bảo mật Kaspersky, người dùng cá nhân và các doanh nghiệp có thể dùng chính các công cụ AI để nhận diện deepfake nhằm giảm thiểu xác suất thành công của các vụ lừa đảo.
Cụ thể, người dùng có thể dùng những phần mềm phát hiện nội dung do AI tạo ra sử dụng thuật toán AI tiên tiến để phân tích và xác định mức độ bị chỉnh sửa của tệp hình ảnh, video, âm thanh. Có thể kể đến một số công cụ như: Intel FakeCatcher, Microsoft Video Authenticator…
Đối với video deepfake, một số công cụ giúp nhận diện sự chuyển động không khớp giữa khuôn miệng và lời thoại. Một số công cụ phát hiện lưu lượng máu bất thường dưới da bằng cách phân tích độ phân giải của video vì khi tim bơm máu, tĩnh mạch của con người sẽ đổi màu.
Người dùng có thể phát hiện deepfake nhờ vào hình mờ đánh dấu tác giả. Hình mờ (watermark) đóng vai trò là dấu hiệu nhận biết trong hình ảnh, video… giúp tác giả bảo vệ bản quyền cho các tác phẩm AI. Tuy nhiên, công cụ này có thể trở thành vũ khí chống lại deepfake vì hình thức này có thể giúp truy tìm nguồn gốc của nền tảng tạo ra AI.
Bên cạnh đó, vì AI thu thập lượng lớn dữ liệu từ nhiều nguồn khác nhau để tạo nội dung mới, nên người dùng có thể dùng cách truy xuất nguồn gốc nội dung để phát hiện các chiêu trò mạo danh, chỉnh sửa của deepfake.
Hiện tại, nhiều công ty đang phát triển các công nghệ giúp xác thực video. Đây là quá trình xác thực nội dung video không bị thay đổi so với giai đoạn đầu được tạo ra. Các công nghệ này hiện đang được những người làm trong lĩnh vực sáng tạo video quan tâm nhất.
Một số công nghệ mới nổi sử dụng thuật toán mã hóa để chèn các giá trị nhận biết theo các khoảng thời gian đặt trong video. Nếu video đã qua chỉnh sửa, giá trị sẽ bị thay đổi.
"Deepfake đã trở thành cơn ác mộng đối với xã hội. Tội phạm mạng hiện đang khai thác trí tuệ nhân tạo (AI) để ghép khuôn mặt nạn nhân vào ảnh và video khiêu dâm cũng như trong chiến dịch tuyên truyền.
Những hình thức này nhằm mục đích thao túng dư luận bằng cách phát tán thông tin sai lệch hoặc thậm chí gây tổn hại đến danh tiếng của tổ chức hoặc cá nhân", bà Võ Dương Tú Diễm, giám đốc khu vực Việt Nam của Kaspersky, cho biết.
Theo Regula, một hệ thống tham chiếu thông tin, có tới 37% doanh nghiệp trên toàn thế giới va chạm các vụ lừa đảo deepfake bằng giọng nói và 29% trở thành nạn nhân của video deepfake.
Deepfake đã trở thành mối đe dọa đối với an ninh mạng Việt Nam, nơi tội phạm mạng thường sử dụng các cuộc gọi video deepfake để mạo danh một cá nhân và vay mượn người thân, bạn bè của họ những khoản tiền lớn cho những trường hợp cấp bách.
Hơn nữa, một cuộc gọi điện video deepfake có thể được thực hiện chỉ trong vòng một phút nên nạn nhân rất khó phân biệt giữa cuộc gọi thật và giả.
Tối đa: 1500 ký tự
Hiện chưa có bình luận nào, hãy là người đầu tiên bình luận