Site icon MUC News

FBI cảnh báo: Đừng trả lời tin nhắn quen giọng nhưng lạ danh tính

Không phản hồi tin nhắn lạ hoặc nhấp vào các liên kết không rõ nguồn gốc. (Ảnh: minh họa: AI)

FBI cảnh báo không nên phản hồi tin nhắn hay cuộc gọi từ số lạ vì deepfake giọng nói AI đang trở thành công cụ lừa đảo cực kỳ nguy hiểm

Giọng quen, số lạ – bẫy lừa mới của AI

Nhiều quan chức Mỹ đã nhận tin nhắn giả mạo Thượng nghị sĩ Marco Rubio qua ứng dụng Signal. Kẻ gian dùng AI để tạo giọng nói giả giống đến mức đánh lừa cả người trong cuộc.

Chỉ cần vài phút ghi âm, công nghệ AI có thể tái tạo giọng nói gần như thật. Những đoạn ghi âm này thường được dùng để lừa nạn nhân chuyển tiền hoặc cung cấp dữ liệu cá nhân.

Cảnh giác trước cả những giọng nói quen thuộc

FBI khuyên người dùng tuyệt đối không tin vào giọng nói nếu không thể xác minh danh tính. Đường link lạ, số điện thoại không rõ nguồn đều có thể dẫn tới lừa đảo.

Các chuyên gia cảnh báo deepfake giọng nói đang ngày càng rẻ, dễ tạo và phổ biến. Kẻ xấu có thể giả giọng người thân, bạn bè hoặc nhân viên ngân hàng để đánh vào sự tin tưởng.

Cách tự bảo vệ khỏi giọng nói giả mạo

Công nghệ AI không có lỗi, nhưng sự chủ quan của con người lại tạo cơ hội cho kẻ xấu lợi dụng. Trong thời đại AI, kiểm tra danh tính phải luôn là ưu tiên hàng đầu.

Theo: Pháp luật