Cảnh báo lộ thông tin cá nhân từ ứng dụng chỉnh sửa ảnh, ghép ảnh

Thứ Bảy, 24/02/2024, 06:03 [GMT+7]

Điện Biên TV - Chỉ với vài thao tác trên app, công nghệ AI đã giúp chúng ta có được những bức ảnh được ghép theo phong cách cổ trang, sửa ảnh chân dung thành tác phẩm nghệ thuật, bạn có thể trẻ ra 5, 7, thậm chí hàng chục tuổi với làn da căng bóng, không một nếp nhăn, đôi mắt trong veo, phong thái sang trọng, quý phái hoặc chuẩn soái ca… Dạo qua một lượt trên zalo, facebook, người dùng dễ dàng nhận ra đang có cơn sốt thay ảnh avatar được tạo bởi công nghệ AI như một xu hướng mới.

Từ việc hấp dẫn người dùng, nhân dịp 20/10/2023, Zalo đã tung ra ứng dụng Zalo AI Avatar (tạo ảnh đại diện bằng trí tuệ nhân tạo), giúp người dùng có thể tạo ra những bức chân dung đẹp đến siêu thực với nhiều phiên bản và phong cách khác nhau.

Những bức ảnh tạo bởi Zalo AI được đánh giá là khá tự nhiên, giữ được các đường nét trên khuôn mặt của người thật. Người dùng chỉ cần tải một bức ảnh rõ mặt lên, sau đó cung cấp các thông tin về độ tuổi, giới tính, chọn một trong những phong cách được gợi ý, ngay lập tức, Zalo AI sẽ tạo ra hàng loạt ảnh chân dung mới theo yêu cầu.

Với khả năng tạo ra ảnh đại diện của một người hoàn toàn mới theo nhiều phong cách ưa thích, có thể trở thành các nhân vật theo mẫu có sẵn, tính năng này đã tạo sự thích thú đối với người dùng.

1
Zalo AI Avatar từng tạo cơn sốt đối với người dùng ứng dụng này.

Thời gian gần đây, trên các mạng xã hội đang có trào lưu ghép mặt mình vào các video có sẵn của các ứng dụng như Faceplay, Reface… để trở thành các người mẫu, hoa hậu, các cô gái xinh đẹp cổ trang của Trung Quốc hoặc trở về hình ảnh của chính bản thân mình từ nhiều chục năm về trước với nước ảnh màu đen trắng hay nhuốm màu thời gian...

Khi gõ tìm kiếm trên mạng, người dùng có thể tìm được hàng chục ứng dụng và hướng dẫn cài đặt vào điện thoại của mình. Tuy nhiên, không phải người dùng nào cũng biết điều này sẽ tăng nguy cơ lộ thông tin và hình ảnh cá nhân.

Việc ghép mặt vào các video có sẵn của các app đã vô tình cung cấp dữ liệu khuôn mặt mình cho các ứng dụng nước ngoài và dễ bị lợi dụng sau đó. Đây là một dạng công nghệ có tên là Deepfake. Khi đã có được dữ liệu này, các đối tượng dễ dàng sử dụng gương mặt đó vào các mục đích xấu trên Internet, như ghép vào các video có nội dung đồi truỵ hoặc giả mạo khuôn mặt để thực hiện hành vi lừa đảo.

Ngoài ra, những ngày gần đây, khi truy cập các mạng xã hội như Facebook, Tiktok, chúng ta dễ dàng bắt gặp hàng loạt hình ảnh theo phong cách hoạt hình được tạo ra từ những bức ảnh chụp thật của người dùng. Để thực hiện điều này, người dùng phải thông qua một ứng dụng với công nghệ trí tuệ nhân tạo.

Với ứng dụng này, người dùng sẽ phải cấp cho ứng dụng những quyền nhất định như yêu cầu người sử dụng cung cấp hình ảnh, quyền truy cập kho ảnh, camera điện thoại và một số quyền khác. Trên cơ sở có được các thông tin về khuôn mặt, hình dáng và các thông tin khác như địa chỉ email, số điện thoại..., nhà cung cấp ứng dụng có thể thu thập, lưu trữ và xử lý thông tin cá nhân, dữ liệu cá nhân của người sử dụng vào các mục đích khác nhau.

1
Sử dụng các phần mềm chỉnh sửa gương mặt vô tình người dùng đã tự tạo nguy cơ cho bản thân mình khi thông tin cá nhân không còn mang yếu tố riêng tư.

Bên cạnh đó, công nghệ thanh toán, xác nhận tài khoản bằng khuôn mặt đang rất phổ biến, do đó kẻ xấu hoàn toàn có thể lợi dụng hình ảnh để đánh cắp tài khoản cá nhân. Điều này đồng nghĩa với việc dữ liệu cá nhân của người dùng có thể bị lộ khi tải ảnh lên máy chủ của nhà cung cấp, hoặc bị sử dụng cho các mục đích khác mà người dùng không biết.

Thượng úy Nguyễn Tuấn Anh, Cán bộ Phòng An ninh mạng và  Phòng chống tội phạm sử dụng công nghệ cao, Công an tỉnh Điện Biên, cho biết: “Một trong những hình thức lừa đảo phổ biến hiện nay là cuộc gọi video deepfake. Các đối tượng thông qua công nghệ trí tuệ nhân tạo - AI sao chép chân dung để tạo ra các đoạn video giả người thân, bạn bè, từ đó thực hiện các cuộc gọi lừa đảo trực tuyến."

Các đối tượng sử dụng hình ảnh cá nhân cắt ghép giả mạo người thân, người quen, cơ quan chức năng gọi điện thoại có hình để lừa các bị hại. Mặc dù lực lượng chức năng đã liên tục cảnh báo thủ đoạn lừa đảo sử dụng công nghệ Deepfake, thế nhưng chỉ đơn giản xuất phát từ sự tò mò và chủ quan mà cùng với nhiều nơi trên cả nước, trên địa bàn tỉnh Điện Biên cũng đã có nhiều nạn nhân bị lừa theo chiêu thức này..

“Khi xử lý ảnh, hình ảnh của người dùng sẽ được tải lên máy chủ của nhà cung cấp dịch vụ, tạo nên nguy cơ lộ thông tin cá nhân người dùng. Việc cung cấp ảnh cá nhân cũng tạo nguy cơ bị lợi dụng để tạo ra ảnh giả mạo nếu chúng lọt vào tay kẻ xấu. Chúng có thể dựng những kịch bản, dựng hình ảnh thu thập được để đưa vào công nghệ như Deepfake tạo ra các bức ảnh hay video giả mạo, sau đó sử dụng để lừa đảo.” - Thượng úy Nguyễn Tuấn Anh, cho biết thêm.

Các chuyên gia công nghệ cảnh báo khi sử dụng các ứng dụng công nghệ AI mới này, người dùng phải thật cần cẩn trọng để tự bảo vệ bản thân khỏi những rủi ro tiềm ẩn. Đặc biệt, chỉ nên sử dụng các ứng dụng công nghệ uy tín, kiểm soát các quyền truy cập và đọc kỹ các điều khoản trước khi sử dụng rồi mới bấm nút đồng ý. Ngoài ra, người dùng cần cẩn trọng với những ứng dụng không rõ nguồn gốc từ nước ngoài./.

 

 

ANTV Điện Biên/DIENBIENTV.VN

 

.