Media sosial bukan hanya berdampak negatif pada manusia, tetapi juga memberikan dampak negatif pada teknologi kecerdasan buatan (artificial intelligence/AI). Suatu riset yang dilakukan oleh tim peneliti dari University of Texas at Austin dan Case Western Reserve University menemukan bahwa AI model bahasa besar (large language models atau LLM) yang dilatih dengan “data sampah” cenderung mengalami penurunan kemampuan penalaran logis dan perubahan kepribadian yang mengkhawatirkan.
Menurut Zhangyang Wang, salah satu penulis utama studi tersebut, kualitas data dalam ilmu data bukan hanya diukur dari segi tata bahasa dan keterbacaan, tetapi juga harus mempertimbangkan kedalaman konten, substansi, serta kebenaran faktual. Dengan data berkualitas rendah seperti unggahan media sosial yang pendek, dangkal, atau sensasional, AI model bahasa besar cenderung mengalami penurunan kemampuan penalaran.
Studi ini menunjukkan bahwa ketika model seperti Llama 3 dan Qwen dilatih dengan data berkualitas rendah dari media sosial, kemampuan penalarannya semakin kacau. Model-model tersebut cenderung melewati langkah-langkah berpikir logis, memberikan jawaban yang salah, dan bahkan menunjukkan ciri kepribadian tertentu setelah dilatih dengan data tersebut.
Upaya peneliti untuk memperbaiki model AI yang terdampak dengan menambahkan prompt instruction dan data berkualitas tinggi dalam pelatihan hanya memberikan hasil sebagian kecil. Hal ini menunjukkan bahwa dampak data buruk pada AI bisa bersifat sistemik dan membutuhkan pendekatan baru untuk menetralkan efeknya.
Mehwish Nasim, seorang peneliti AI dari University of Western Australia, menegaskan prinsip klasik bahwa “sampah masuk, sampah keluar” dalam dunia kecerdasan buatan. Ia mengingatkan perusahaan teknologi untuk lebih berhati-hati dalam menggunakan konten media sosial dalam melatih AI mereka, karena di era informasi yang dipenuhi oleh konten dangkal dan misinformasi, kualitas data yang diberikan pada model AI sangat penting untuk memastikan kemampuan penalaran yang baik.
