Thực hư nữ ca sĩ Taylor Swift lộ clip "nóng"?
Mới đây, một loạt video deepfake khiêu dâm giả mạo của nữ ca sĩ Taylor Swift đã lan truyền trên mạng xã hội X (trước đây là Twitter). Ngay lập tức, những video này thu hút hơn 27 triệu lượt xem và hơn 260.000 lượt thích trong 19 tiếng trước khi tài khoản đăng tải bị đình chỉ.
Theo NBC, những hình ảnh này có thể được tạo ra bằng các công cụ AI (trí tuệ nhân tạo). Được vẽ lại hoàn toàn mới hoặc thông qua quá trình chụp một hình ảnh thật và "cởi bỏ" quần áo bằng các công cụ AI.
Nguồn gốc của những bức ảnh này vẫn chưa rõ ràng, nhưng thông tin mờ trên đó cho thấy chúng đến từ một trang web nổi tiếng với việc đăng tải những bức ảnh giả mạo khỏa thân của những người nổi tiếng, có một phần trang web được đặt tiêu đề là "AI deepfake". Trang web này đã "lộng hành" từ rất lâu trên internet.
Thực hư nữ ca sĩ Taylor Swift lộ clip "nóng"?
Reality Defender, một công ty phần mềm phát hiện AI đã quét các hình ảnh và cho biết có khả năng cao chúng được tạo ra bằng công nghệ này. Những bức ảnh này lan truyền trên mạng xã hội một cách chóng mặt, càng khẳng định những mặt trái của AI là có thật.
Hiện tại, dù tình hình quản lý AI trên mạng xã hội rất phức tạp, nhưng các nền tảng như Facebook, X... vẫn chưa có triển khai hoặc công bố định hướng của mình đối với các tác phẩm dùng AI.
Trong loạt hình giả, ảnh Swift khỏa thân ở sân vận động bóng đá lan truyền rầm rộ nhất. Điều này xuất phát từ việc trong tháng qua, cô liên tục xuất hiện trên khán đài để cổ vũ bạn trai Travis Kelce thi đấu cho Kansas City ở các giải NFL. "Tôi không biết việc mình xuất hiện quá nhiều có khiến một số ông bố như Brads và Chads khó chịu hay không", Swift từng tâm sự.
Vào đầu tháng 1/2024, một ngôi sao của Vũ trụ điện ảnh Marvel, hiện chỉ mới 17 tuổi đã lên tiếng về việc tìm thấy những hình ảnh deepfake khỏa thân của mình trên X và không thể nào báo cáo, hoặc xóa chúng đi. Hiện tại, NBC News vẫn phát hiện nội dung tương tự trên X. Vào tháng 6/2023, một đánh giá của NBC News đã phát hiện ra những nội dung giả mạo khiêu dâm liên quan đến các ngôi sao TikTok trên nền tảng này. Sau đó, chỉ một số nội dung bị X xóa.
NBC News đã trích dẫn lời của nhiều nữ sinh trung học ở Mỹ, chia sẻ rằng họ đã trở thành nạn nhân của deepfake. Hiện tại, không có luật liên bang nào tại Mỹ quản lý việc tạo và phổ biến nội dung giả mạo khiêu dâm.
Dân biểu Joe Morelle, người đã đưa ra một dự luật vào tháng 5/2023 nhằm hình sự hóa hành vi giả mạo khiêu dâm ở cấp liên bang đã chia sẻ về trường hợp giả mạo Taylor Swift và nhiều cô gái khác, gọi đó là "ví dụ khác về việc hủy hoại hình ảnh của phụ nữ hàng loạt".
Carrie Goldberg, luật sư đại diện cho nạn nhân của deepfake và các dạng tài liệu khiêu dâm vô căn cứ trong hơn một thập kỷ qua, lên tiếng rằng vấn đề này sẽ trở nên nguy hiểm hơn nếu không có biện pháp khắc phục kịp thời. "Không phải ai cũng có hàng triệu người hâm mộ như Taylor Swift để hỗ trợ khi họ trở thành nạn nhân. Ngay cả những nền tảng có chính sách về deepfake, họ cũng không hiệu quả trong việc giải quyết vấn đề, đặc biệt là khi nội dung lan truyền nhanh chóng", cô nói.
Goldberg chia sẻ thêm: "Công nghệ cũng có mặt trái, nhưng chính nó cũng là giải pháp rõ ràng. AI trên các nền tảng như X có thể nhận biết và loại bỏ hình ảnh giả mạo. Nếu có một hình ảnh đang lan truyền nhanh chóng thì nó có thể bị xác định và xóa bỏ. Vì vậy, không có lý do gì mà không có giải pháp".
No comments