Tại hội thảo TechCrunch Disrupt 2024, diễn ra từ ngày 28 đến 30.10 tại Trung tâm Moscone West, San Francisco, Mỹ, ba chuyên gia hàng đầu đã tranh luận về cách ngăn chặn thông tin sai lệch do trí tuệ nhân tạo (AI) tạo ra.
Imran Ahmed, Giám đốc điều hành Trung tâm Chống xung đột Kỹ thuật số (CCDH), nhấn mạnh rằng AI đã làm thay đổi và sai lệch bản chất của nhiều thông tin. Với chi phí gần như bằng không, AI có thể tạo và phân phối lượng lớn thông tin không chính xác, tạo ra một “cỗ máy nhảm nhí” liên tục phát tán. Ahmed so sánh quy mô của vấn đề này với "cuộc chạy đua vũ trang" thông tin, đẩy mức ảnh hưởng lên tầm cao chưa từng có.
Bà Brandie Nonnecke, Giám đốc Phòng thí nghiệm chính sách CITRIS của Đại học UC Berkeley, cho rằng các nền tảng xã hội chưa có những bước đi hiệu quả. Bà chỉ ra rằng việc tự điều chỉnh và báo cáo minh bạch, như xóa hàng loạt nội dung có hại, có thể tạo ra cảm giác sai lầm rằng vấn đề đã được xử lý triệt để.
Theo bà Brandie Nonnecke, các nền tảng cần phải cải thiện quy trình xử lý để không bỏ sót những nội dung độc hại đang lan truyền rộng rãi.
Còn bà Pamela San Martin, đồng chủ tịch Hội đồng giám sát của Meta, cũng đồng tình về việc truyền thông xã hội chưa làm hết trách nhiệm. Tuy nhiên, bà cảnh báo không nên hoàn toàn loại bỏ AI trong bối cảnh có nhiều lợi ích tiềm năng.
Bà San Martin cho biết, AI có thể mang lại những lợi ích đặc biệt trong lĩnh vực truyền thông bầu cử nhưng nếu sử dụng biện pháp ngăn chặn cực đoan chỉ vì sợ hãi, xã hội có nguy cơ bỏ lỡ các giá trị tích cực của công nghệ.
Cuộc thảo luận tại TechCrunch Disrupt 2024 cho thấy nhu cầu cấp thiết về biện pháp mạnh mẽ để kiểm soát nội dung AI tạo ra, đồng thời khuyến nghị các nền tảng truyền thông xã hội xem xét lại phương pháp tiếp cận vấn đề.
Các chuyên gia nhấn mạnh rằng, bên cạnh những biện pháp ngăn chặn thông tin sai lệch, cần đảm bảo các ứng dụng AI vẫn có thể mang lại lợi ích cho xã hội một cách an toàn và minh bạch.