06/02/2023 19:46 GMT+7 | HighTech
Khi không thể chọn mặt hay nghe tiếng để gửi vàng, người dùng Internet tương lai sẽ phải rất cân nhắc trước khi đặt lòng tin.
Elon Musk hoạt động năng nổ trên mạng xã hội, nhưng không mấy khi ông lộ mặt để tương tác với người dùng Internet. Đó là một trong những lý do khiến chúng ta dễ dàng nhận định: video dưới đây là hàng giả.
Video đạt tới hơn 2 triệu view trên YouTube cho thấy cả mặt và giọng của Elon Musk đều có thể được làm giả một cách chân thực - Video: YouTube.
Nhìn kỹ hơn, cụ thể là quan sát phần cằm của nhân vật chính trong video, chúng ta có thể nhận thấy người này đã sử dụng một “mặt nạ Elon Musk” để che giấu khuôn mặt của mình.
Người xem có thể lập tức nhận ra một video ngắn quảng bá cho dịch vụ thay đổi giọng nói bằng AI. Trong video, “Elon Musk” nhiều lần nhắc tới phần mềm đổi giọng nói bằng AI, đồng thời trình diễn khả năng đổi giọng nói của mình thành một số nhân vật có tiếng, như diễn viên Morgan Freeman hay Tổng thống Joe Biden. Chắc chắn nhân vật trong video không phải Elon Musk, nên ta có thể khẳng định giọng của Elon Musk cũng nằm trong cơ sở dữ liệu của AI chuyển giọng này.
Trong ngành công nghệ, có tồn tại một sản phẩm nữa cố gắng đánh lừa ngũ quan con người.
Cách đây vài năm, mạng Internet lo lắng với sự xuất hiện của deepfake, công nghệ ghép mặt có thể tạo ra những video chân thực đến đáng sợ. Được phát triển dựa trên deep learning, công nghệ deepfake cho phép một cỗ máy học cách tạo ra mặt giả từ một cơ sở dữ liệu gồm nhiều góc cạnh của một khuôn mặt.
Cũng giống như vô vàn những xu hướng khác, trend deepfake sớm lùi vào dĩ vãng. Tuy nhiên, số người quan tâm tới nó ít đi không đồng nghĩa với việc công nghệ thất truyền hay nguy cơ phát sinh từ nó kém phần nguy hiểm.
Diễn viên hài Jordan Peele cho thấy sự nguy hiểm của công nghệ deepfake, trong một video được đăng tải từ năm 2018 - Video: Jordan Peele.
Những video gắn mặt giả trong tương lai có thể sẽ còn thuyết phục hơn nữa, khi chúng ngày một chân thật và sở hữu một ngữ âm y hệt giọng chính chủ. Như bạn có thể thấy chất lượng những giọng nói giả rất cao, khiến đôi tai chúng ta khó có thể nhận ra yếu tố “máy móc” ở trong đó.
Điều này khiến giọng giả đặc biệt nguy hiểm, hơn hẳn những video deepfake có thể nhận ra bằng mắt thường.
Video đăng tải ở đầu bài viết một lần nữa cho thấy công nghệ deepfake vẫn tồn tại, và đã đạt tầm cao mới với khả năng giả giọng bằng AI. Với phương pháp học sâu tương tự, là được huấn luyện trên một bộ cơ sở dữ liệu lớn, những phần mềm thay đổi giọng nói dạng này sẽ sớm gieo rắc lên Internet thêm vô số dữ liệu do máy móc tự động sản sinh.
Ở thời điểm hiện tại, việc thiếu vắng những phần mềm có thể phát hiện được sản phẩm do AI tạo ra có thể khiến Internet thêm độc hại. Nếu những cơ sở nghiên cứu trí tuệ nhân tạo không sớm có cách thức hỗ trợ người dùng dễ dàng phân biệt, dữ liệu trên Internet trong vòng 5-10 năm tới sẽ dễ dàng biến tướng, không còn là công cụ đắc lực của con người.
Trông đợi gì trong tương lai?
Deepfake, hay giọng nói giả bằng AI, hay thậm chí là chatbot đều là những xu hướng sản sinh ra từ tiến bộ công nghệ, hay cụ thể là những đột phá trong nghiên cứu trí tuệ nhân tạo. Sử dụng một bộ cơ sở dữ liệu lớn để huấn luyện một cỗ máy, chúng ta có thể có trong tay những công cụ trợ lực thú vị.
Tuy nhiên, chủ tâm của người sử dụng công nghệ mới định nghĩa liệu công cụ tốt hay xấu. Công nghệ làm giả giọng có thể giúp ích cho ngành giải trí, giúp chúng ta lấy lại những gì đã mất, … nhưng cũng có thể dùng vào mục đích xấu.
Deepfake, giọng giả bằng AI hay chatbot có thể là xu hướng công nghệ sớm phai tàn, nhưng nền móng trí tuệ nhân tạo của chúng sẽ tiếp tục song hành với con người, ít nhất cho tới khi ta vẫn tận dụng được sức mạnh của điện.
Nếu không sớm đề xuất những phương cách giúp đám đông sớm nhận biết nguy hiểm, hay tạo ra những hệ thống tự động đối đầu với chính những phần mềm trí tuệ nhân tạo độc hại, Internet tương lai sẽ suy sụp dưới chính sự yếu kém của con người, trong cả khả năng và đạo đức.
Đăng nhập
Họ và tên
Mật khẩu
Xác nhận mật khẩu
Mã xác nhận
Tải lại captchaĐăng ký
Xin chào, !
Bạn đã đăng nhập với email:
Đăng xuất