Menurutnya, keberadaan konten yang memuat informasi tidak akurat atau menghina tragedi tersebut dapat memperpanjang penyebaran kebohongan secara luas.
Ia menilai bahwa perusahaan teknologi dengan jangkauan pengguna yang sangat besar memiliki tanggung jawab sosial untuk memastikan bahwa platform mereka tidak digunakan untuk menyebarkan fitnah atau konten yang merugikan masyarakat.
Grok Juga Diselidiki di Eropa
Kekhawatiran atas Fitur Pembuatan Gambar AI
Kontroversi terkait Grok tidak hanya terjadi di Inggris.
Alat kecerdasan buatan tersebut juga menjadi perhatian regulator di kawasan Eropa, termasuk oleh European Commission.
Penyelidikan dilakukan setelah muncul kekhawatiran bahwa sistem tersebut dapat digunakan untuk menghasilkan gambar yang bermuatan seksual menggunakan wajah orang sungguhan.
Akibat protes dari berbagai pihak, fitur pembuatan gambar pada Grok dilaporkan telah dinonaktifkan bagi sebagian besar pengguna.
Langkah ini diambil sebagai respons terhadap kritik publik yang menilai bahwa teknologi tersebut belum memiliki sistem pengamanan yang memadai.
Risiko Regulasi bagi Platform X
Elon Musk Hadapi Tekanan Regulasi
Kontroversi yang melibatkan Grok juga berpotensi menimbulkan tekanan regulasi terhadap platform X yang dimiliki oleh Elon Musk.
Sejumlah laporan menyebutkan bahwa perusahaan tersebut dapat menghadapi berbagai konsekuensi jika dinilai gagal mengendalikan penyebaran konten bermasalah di platform mereka.
Potensi tindakan yang dapat diambil oleh regulator mencakup denda, tindakan pengawasan tambahan, hingga kemungkinan pembatasan layanan di wilayah Inggris.
Meski demikian, platform X dilaporkan masih melakukan penyelidikan internal untuk memahami bagaimana konten tersebut dapat muncul dan menyebar di platform mereka.
Tantangan Moderasi AI di Platform Media Sosial
Kontroversi yang melibatkan Grok menunjukkan tantangan besar dalam pengelolaan teknologi kecerdasan buatan di platform media sosial berskala global.
Dengan jutaan pengguna yang dapat berinteraksi dengan sistem AI secara langsung, potensi penyalahgunaan teknologi menjadi semakin tinggi.
Kasus ini juga menyoroti pentingnya sistem moderasi konten yang kuat serta kebijakan penggunaan AI yang jelas.
Bagi perusahaan teknologi, tantangan ke depan adalah menemukan keseimbangan antara kebebasan berekspresi pengguna dan perlindungan terhadap individu maupun kelompok yang dapat terdampak oleh konten yang dihasilkan oleh sistem kecerdasan buatan.






