Ngày 22/7 vừa qua, tại một sự kiện của Cục Dự trữ Liên bang Mỹ (FED) tập trung vào việc thảo luận về những tác động kinh tế và xã hội của trí tuệ nhân tạo (AI), Sam Altman, CEO của OpenAI – công ty nổi tiếng với ChatGPT, đã bày tỏ những quan ngại sâu sắc về sự phát triển nhanh chóng của công nghệ AI và khả năng lạm dụng nó. Ông đặc biệt nhấn mạnh vào vấn đề giả mạo giọng nói và hình ảnh bằng AI, mà theo ông, đã đạt đến mức có thể vượt qua nhiều hình thức xác thực hiện tại.
Ông Altman chỉ ra rằng vẫn còn các tổ chức tài chính chấp nhận giọng nói như một phương thức xác minh để chuyển tiền hoặc thực hiện các hành động quan trọng, điều mà ông coi là “thực sự nguy hiểm”. Theo ông, AI hiện đã có khả năng đánh bại gần như toàn bộ các phương thức xác thực hiện có, ngoại trừ mật khẩu. Điều này cho thấy một lỗ hổng bảo mật lớn trong bối cảnh công nghệ ngày càng phát triển.
Không chỉ dừng lại ở đó, ông Altman còn bày tỏ lo ngại về viễn cảnh siêu AI bị các thế lực thù địch lạm dụng trong khi phần còn lại của thế giới chưa đủ khả năng phòng thủ. Ông sợ rằng một kẻ xấu có thể tạo ra siêu AI trước phần còn lại của thế giới và dùng nó để tấn công lưới điện hay chế tạo vũ khí sinh học. Điều này đặt ra một thách thức lớn cho toàn cầu trong việc kiểm soát và đảm bảo sử dụng AI một cách an toàn.
Ông Altman cũng nhấn mạnh rằng thế giới chưa sẵn sàng đối mặt với những công nghệ mới như video và cuộc gọi AI giả mạo, những điều mà ông cho là có thể không thể phân biệt được với người thật. Điều này làm dấy lên mối quan ngại về một cuộc khủng hoảng toàn cầu về sự thật và lòng tin trong thời đại kỹ thuật số.
Để giải quyết vấn đề này, ông Altman ủng hộ sáng kiến The Orb – một thiết bị giúp xác minh người dùng là con người thật trong môi trường kỹ thuật số. Ông kỳ vọng dự án này sẽ trở thành một nền tảng “chứng thực nhân dạng” trong thế giới mà AI có thể dễ dàng giả mạo mọi thứ. Ông khẳng định OpenAI không phát triển các công cụ tạo video hay giọng nói giả mạo, nhưng ông thừa nhận các công nghệ đó đang tiến bộ rất nhanh, không chỉ tại Mỹ mà còn trên toàn thế giới.
Trước đó, đã có nhiều sự cố liên quan đến deepfake gây chấn động dư luận. Gần đây, các chuyên gia tại Việt Nam cũng lên tiếng trước một số trào lưu sử dụng deepfake để tạo nội dung câu like, câu view. Về vấn đề pháp lý, luật sư Đăng Ngọc Duệ, Giám đốc Công ty Luật TNHH Phụng Sự Công Lý, cho biết tùy thuộc vào nội dung hình ảnh, video được dàn dựng, mục đích của người sản xuất/phát tán sẽ có các lỗi và quy định xử lý riêng. Điều này cho thấy sự cần thiết của việc xây dựng khung pháp lý để kiểm soát và xử lý các vấn đề liên quan đến AI và deepfake.
Tóm lại, những cảnh báo của CEO OpenAI về cuộc khủng hoảng mới do AI phát triển nhanh chóng đã đặt ra những thách thức lớn cho toàn cầu. Việc đảm bảo sử dụng AI một cách an toàn và có trách nhiệm đang trở thành một ưu tiên hàng đầu trong thời đại công nghệ số. Tìm kiếm giải pháp kiểm soát AI và bảo vệ thông tin cá nhân đang là một cuộc đua thời gian để ngăn chặn những hệ lụy tiềm ẩn trong tương lai.