Trong thời đại công nghệ số, việc sử dụng các công nghệ tiên tiến như trí tuệ nhân tạo (AI) đang ngày càng trở nên phổ biến.Tuy nhiên, một trong những vấn đề đáng lo ngại là sự xuất hiện của các thủ đoạn lừa đảo ngày càng tinh vi, sử dụng công nghệ AI để thao túng và lừa đảo nạn nhân. Gần đây, Cục An toàn thông tin - Bộ Thông tin và Truyền thông đã cảnh báo về một thủ đoạn lừa đảo sử dụng công nghệ ghép mặt AI, đang ngày càng lan rộng và gây ra nhiều thiệt hại.
Thủ Đoạn Lừa Đảo Ghép Mặt AI: Cảnh Giác Trước Khi Quá Muộn
Vào ngày 23/12, chị N.T.H (sinh năm 1979, ở Hà Nội) đã nhận được một cuộc gọi video qua Messenger từ con trai mình đang học tại Thành phố Hồ Chí Minh. Trong cuộc gọi, người được cho là con trai chị yêu cầu chị chuyển hơn 100 triệu đồng để đóng phí đăng ký du học. Dù là một cán bộ ngân hàng đã được tập huấn về các hình thức lừa đảo, chị H đã rất tỉnh táo và không thực hiện yêu cầu chuyển tiền.
Đây chỉ là một trong số hàng ngàn vụ lừa đảo mà các đối tượng xấu đang áp dụng công nghệ ghép mặt AI để thực hiện. Thủ đoạn của chúng là thu thập hình ảnh và video của nạn nhân từ mạng xã hội hoặc các nguồn khác. Sau đó, chúng sử dụng công nghệ AI để ghép khuôn mặt và giọng nói của người thân hoặc bạn bè nạn nhân, tạo ra các cuộc gọi video giả mạo với mục đích lừa đảo tài chính.
Các đối tượng lừa đảo thường tạo ra các tình huống khẩn cấp, như tai nạn, nợ nần hoặc cần hỗ trợ tài chính gấp gáp. Trong những cuộc gọi này, chúng yêu cầu nạn nhân chuyển tiền ngay vào tài khoản do chúng cung cấp. Thực tế, đây là một hình thức lừa đảo tinh vi và khó nhận biết, dễ dàng gây hoang mang và khiến nạn nhân mất cảnh giác.
Cảnh Giác Đặc Biệt Vào Dịp Cuối Năm
Vào dịp cuối năm, các đối tượng lừa đảo thường gia tăng hoạt động, lợi dụng sự bận rộn của người dân và nhu cầu tài chính gấp gáp để thực hiện các hành vi phạm pháp. Vì vậy, Cục An toàn thông tin khuyến cáo người dân phải hết sức cảnh giác và thận trọng trong việc tiếp nhận các cuộc gọi video hoặc tin nhắn yêu cầu chuyển tiền.
Làm Thế Nào Để Bảo Vệ Chính Mình?
Để bảo vệ bản thân và tài sản, người dân cần thực hiện một số biện pháp sau:
-
Xác Minh Thông Tin Trước Khi Chuyển Tiền: Nếu nhận được cuộc gọi hoặc tin nhắn yêu cầu chuyển tiền, hãy xác minh thông tin bằng cách gọi lại trực tiếp cho người thân qua số điện thoại bạn đã biết để kiểm tra tình huống. Đừng vội vàng chuyển tiền chỉ vì lý do khẩn cấp.
-
Cẩn Trọng Khi Chia Sẻ Thông Tin Cá Nhân: Hạn chế đăng tải hình ảnh, video cá nhân và thông tin nhạy cảm lên mạng xã hội. Điều này giúp giảm nguy cơ bị lợi dụng để thực hiện các cuộc gọi video giả mạo.
-
Kiểm Tra Quyền Riêng Tư: Đảm bảo rằng các tài khoản mạng xã hội của bạn được bảo mật và chỉ có những người bạn tin cậy mới có quyền truy cập. Điều chỉnh các cài đặt quyền riêng tư để hạn chế người lạ tiếp cận thông tin cá nhân của bạn.
-
Cảnh Giác Với Các Tài Khoản Lạ: Nếu nhận thấy tài khoản của người thân hoặc bạn bè có dấu hiệu bị hack (ví dụ như có tin nhắn lạ hoặc yêu cầu chuyển tiền từ tài khoản đó), hãy cảnh báo họ ngay lập tức và tránh tương tác với các tài khoản này.
-
Trình Báo Ngay Khi Phát Hiện Lừa Đảo: Khi phát hiện có dấu hiệu lừa đảo, người dân cần kịp thời thông báo cho cơ quan công an để ngăn chặn và xử lý theo quy định của pháp luật. Càng phát hiện sớm, càng ngăn chặn được những thiệt hại lớn.
Kết Luận
Công nghệ ngày càng phát triển mang đến nhiều tiện ích nhưng cũng không thiếu nguy cơ tiềm ẩn. Công nghệ ghép mặt AI đang được các đối tượng lừa đảo lợi dụng để thực hiện những hành vi gian lận tinh vi. Vì vậy, người dân cần nâng cao cảnh giác, bảo vệ thông tin cá nhân và tài sản của mình một cách cẩn thận hơn bao giờ hết. Hãy luôn nhớ rằng, trong những tình huống khẩn cấp, việc xác minh thông tin trước khi hành động là điều quan trọng nhất để tránh trở thành nạn nhân của các thủ đoạn lừa đảo tinh vi này.