Namun, ada masalah mendesak lainnya dengan ChatGPT yang dicurigai oleh beberapa pengguna sebagai penyebab penurunan kinerja baru-baru ini. Mereka meyakini masalah yang ada tidak siap untuk diatasi oleh industri AI.
Model bahasa besar (LLM) seperti ChatGPT dan Google Bard mengikis internet publik untuk mendapatkan data yang akan digunakan saat membuat tanggapan. Ledakan besar dalam konten yang dihasilkan oleh AI secara online, memungkinkan LLM mengambil materi yang telah dihasilkan oleh AI ketika berburu informasi di Internet.
Hal ini berisiko menciptakan lingkaran umpan balik, di mana model AI ‘belajar’ dari konten yang dihasilkan oleh AI itu sendiri. Ini dapat mengakibatkan penurunan koherensi dan kualitas output secara bertahap.
Dengan banyaknya LLM yang kini tersedia bagi para profesional dan masyarakat luas, risiko kanibalisme AI menjadi semakin lazim. Terutama karena belum ada demonstrasi yang berarti tentang bagaimana model AI dapat secara akurat membedakan antara informasi ‘nyata’ dan konten yang dihasilkan oleh AI.
Namun, kanibalisasi konten lebih merupakan risiko bagi masa depan AI itu sendiri. Ini sesuatu yang mengancam merusak fungsionalitas alat seperti ChatGPT, yang bergantung pada materi asli buatan manusia untuk mempelajari dan menghasilkan konten.
(Martin Bagya Kertiyasa)