Deep voice một ‘biến thể” của công nghệ Deepfake, vốn sử dụng trí tuệ nhân tạo AI và các thuật toán phức tạp để giả giọng nói của bất kỳ ai với độ chân thật đạt mức hoàn hảo.
Từng chỉ xuất hiện trong các bộ phim bom tấn của Hollywood như “Nhiệm vụ bất khả thi”, công nghệ giả mạo giọng nói giờ đây đã được hiện thực hóa và trở nên tinh vi đến khó lường. Bản thân công nghệ này cũng không được xếp vào dạng độc quyền, mà trái lại, được nghiên cứu và phát triển một cách rộng rãi.
Công nghệ này cũng từng gây xôn xao khi “làm giả” thành công giọng nói của cố đầu bếp nổi tiếng Anthony Bourdain, trong một bộ phim tài liệu được thực hiện vài năm sau khi ông qua đời vào năm 2018.
Một vụ việc liên quan đến lừa đảo Deep voice xảy ra vào đầu năm 2020, khi một quản lý ngân hàng ở Các Tiểu vương quốc Ả Rập Thống nhất (UAE) nhận được cuộc gọi từ một người có giọng nói quen thuộc. Đó là giám đốc tại một công ty mà ông từng nói chuyện trước đó.
Vị giám đốc này mang đến một tin vui: Công ty của ông ta sắp thực hiện một thương vụ thâu tóm, và đang cần ngân hàng phê duyệt số tiền chuyển khoản trị giá 35 triệu USD ( khoảng 805 tỷ đồng). Theo đó, một luật sư có tên Martin Zelner đã được công ty này thuê để điều phối các thủ tục của ngân hàng.
Về phía người quản lý ngân hàng, ông cũng đã nhận được email xác nhận từ luật sư Zelner và giám đốc của công ty nọ về địa chỉ cần chuyển tiền. Mọi quy trình đều được thực hiện chỉn chu và đầy đủ. Người quản lý tin rằng mọi thứ đều hợp lệ và bắt đầu thực hiện các giao dịch chuyển tiền.
Đáng nói, ông không hề hay biết việc mình đã trở thành nạn nhân của một phi vụ lừa đảo cực kỳ tinh vi, khi các nghi phạm sử dụng công nghệ cao để giả giọng nói của của giám đốc công ty kia.
Xuất hiện một làn sóng các đối tượng xấu sử dụng các công nghệ mới nhất để thao túng những người ngây thơ, vốn không biết gì về lĩnh vực Deepfake. Việc giả mạo giọng nói, vốn dễ dàn dựng hơn so với việc làm giả video, sẽ xuất hiện ngày một nhiều hơn. Nhiều doanh nghiệp sẽ dễ trở thành nạn nhân của hình thức lừa đảo này, do không được cảnh báo về nguy cơ và thiếu những biện pháp xác thực tốt hơn”.
Ngoài ra các đối tượng lừa đảo sử dụng công nghệ Deep voice thường rất tinh vi, có sự chuẩn bị kỹ lưỡng trước khi thực hiện, chúng nắm rõ phương thức và quy trình làm việc của con mồi. Đối tượng lừa đảo thậm chí còn bắt chước ngữ điệu, từ ngữ và cách nói… Vì vậy cuộc gọi Deepfake là rất khó để nhận biết.
Do đó nếu không thể chắc chắn thì bạn không nên thực hiện các yêu cầu bất thường qua điện thoại, hãy gặp trực tiếp hoặc tham khảo ý kiến của chuyên gia.
Viết bình luận