Tag: ai

  • 44 Persen Lagu Baru Kini Buatan AI, Industri Musik Mulai Diserbu Bot 

    44 Persen Lagu Baru Kini Buatan AI, Industri Musik Mulai Diserbu Bot 

    Kanalindependen.id – Perubahan besar tengah mengguncang industri musik global. Platform streaming Deezer mengungkap fakta mencengangkan: hampir setengah lagu baru yang diunggah setiap hari kini merupakan hasil kecerdasan buatan (AI).

    Dalam laporan terbarunya, Deezer mencatat sekitar 44 persen dari total unggahan harian setara puluhan ribu lagu dibuat menggunakan teknologi AI. Angka ini menunjukkan lonjakan signifikan dalam waktu singkat, seiring semakin mudahnya akses ke alat produksi musik berbasis AI.

    Namun, di balik ledakan produksi tersebut, tersembunyi persoalan serius. Mayoritas lagu AI ternyata tidak benar-benar dinikmati oleh pendengar manusia. Deezer menemukan sebagian besar streaming terhadap lagu-lagu ini justru berasal dari aktivitas tidak wajar yang diduga kuat menggunakan bot.

    Fenomena ini memunculkan istilah baru: “industri musik tanpa musisi.” Lagu diproduksi secara massal oleh mesin, diunggah ke platform, lalu diputar secara otomatis demi mengejar keuntungan dari sistem royalti. Bukan kualitas yang dikejar, melainkan kuantitas dan celah sistem.

    Ironisnya, meski jumlah lagu AI sangat besar, kontribusinya terhadap total streaming masih tergolong kecil. Artinya, publik belum sepenuhnya beralih ke musik buatan mesin. Namun, ancaman terhadap ekosistem tetap nyata, terutama bagi musisi independen yang bergantung pada distribusi digital.

    Deezer sendiri mulai mengambil langkah tegas. Platform ini mengembangkan teknologi untuk mendeteksi lagu buatan AI, membatasi distribusinya dalam sistem rekomendasi, hingga menahan pembayaran royalti untuk aktivitas streaming yang terindikasi manipulatif.

    Langkah ini menjadi sinyal bahwa perang antara kreativitas manusia dan produksi massal berbasis algoritma telah dimulai. Di satu sisi, AI membuka peluang baru dalam berkarya. Di sisi lain, ia juga menghadirkan risiko eksploitasi yang dapat merusak nilai ekonomi dan artistik dalam industri musik.

    Pertanyaan besar pun mengemuka: ketika musik bisa dibuat dalam hitungan detik oleh mesin, apakah makna karya masih sama? Atau justru industri ini tengah memasuki era baru, di mana batas antara manusia dan teknologi semakin kabur dan keaslian menjadi barang langka? (***)

  • Sarjana Prompt: Ketika AI Mengambil Alih Meja Belajar Mahasiswa

    Sarjana Prompt: Ketika AI Mengambil Alih Meja Belajar Mahasiswa

    SAMPIT, Kanalindependen.id – Di atas meja belajar mahasiswa masa kini, buku-buku tebal yang penuh coretan catatan mulai kehilangan tempatnya. Perannya digantikan oleh satu kolom putih yang berkedip di layar laptop: kolom input AI.

    Fenomena munculnya “Sarjana Prompt” kini tengah mengguncang integritas ruang-ruang kelas di perguruan tinggi. Sebuah era di mana nilai akademik tak lagi sepenuhnya mencerminkan kedalaman pemikiran, melainkan kemahiran mahasiswa dalam merangkai perintah digital.

    Seiring laporan Ars Technica, para dosen kini berada dalam fase frustrasi masal. Mereka terjepit dalam dilema serius: tugas mahasiswa yang masuk sering kali terlihat terlalu sempurna, namun hampa akan proses intelektual yang jujur.

     ChatGPT dan berbagai model bahasa besar lainnya telah mengubah cara mahasiswa memandang beban akademik. Tugas menyusun esai, merangkum jurnal ilmiah, hingga memecahkan soal logika yang dulu membutuhkan waktu berhari-hari untuk riset, kini bisa diselesaikan dalam hitungan detik.

    Hasilnya? Rapi, sistematis, dan meyakinkan secara gramatikal. Namun, di balik tumpukan kata-kata itu, muncul pertanyaan mendasar: apakah mahasiswa benar-benar memahami apa yang mereka kumpulkan? Atau mereka hanya sekadar kurator teks yang dihasilkan oleh mesin?

    “Situasi ini menyentuh inti dari proses pendidikan itu sendiri. Tugas yang dulunya mencerminkan proses berpikir, kini berubah menjadi produk yang sulit diverifikasi keasliannya,” tulis laporan tersebut, menggambarkan keretakan dalam tolok ukur akademik.

    Ironi makin terasa ketika institusi pendidikan mencoba melawan dengan alat serupa. Mahasiswa menggunakan AI untuk mengerjakan tugas, sementara dosen menggunakan AI untuk mendeteksi kecurangan. Sebuah “perang dingin” teknologi di mana mesin memeriksa mesin, sementara transfer ilmu yang sesungguhnya justru terpinggirkan.

    Fenomena ini juga menciptakan pergeseran perilaku belajar. Sebagian mahasiswa mulai kehilangan daya tahan untuk membaca teks yang panjang dan rumit. Mereka memilih fokus pada bidang yang diminati, sementara sisa tanggung jawab akademik lainnya diserahkan sepenuhnya kepada kecerdasan buatan sebagai jalan pintas administratif untuk sekadar lulus.

    Di Kanalindependen.id, kami memandang bahwa gelar sarjana yang lahir dari kemahiran mengetik prompt adalah sebuah kerugian besar bagi masa depan bangsa. Jika pendidikan hanya dimaknai sebagai hasil akhir berupa selembar ijazah, maka mesin telah memenangkannya. Namun, jika pendidikan adalah soal membangun logika, etika, dan karakter, maka kita sedang dalam kondisi darurat.

    Institusi pendidikan tidak bisa lagi bersembunyi di balik aturan-aturan lama yang kaku. Perlu ada keberanian untuk mengubah metode penilaian. Ujian lisan yang mendalam, diskusi tatap muka tanpa gawai, dan penilaian berbasis proses di dalam kelas harus kembali menjadi panglima.

    Kita harus memastikan bahwa mahasiswa kita adalah pemikir, bukan sekadar operator. AI boleh saja membantu menuliskan kata-kata, tapi ia tidak boleh dibiarkan mengambil alih kemampuan berpikir manusia. Karena pada akhirnya, dunia kerja dan kehidupan nyata tidak membutuhkan orang yang sekadar jago “bertanya” pada AI, tapi mereka yang mampu memberikan solusi dengan nurani dan logika yang matang.

    Prompt yang cerdas mungkin bisa menghasilkan nilai ‘A’, tapi hanya ketekunan dan kejujuran yang bisa membentuk seorang sarjana yang sesungguhnya. (***)

  • Ketika Jawaban AI Terlihat Meyakinkan, Tapi Bisa Menyesatkan Pengguna

    Ketika Jawaban AI Terlihat Meyakinkan, Tapi Bisa Menyesatkan Pengguna

    Isi Berita:

    Kanalindependen.id  – Di balik kecanggihan teknologi kecerdasan buatan (Artificial Intelligence/AI), muncul fenomena yang mulai mengkhawatirkan. Sejumlah penelitian terbaru mengungkap bahwa jawaban AI yang terlihat meyakinkan tidak selalu benar, bahkan berpotensi menyesatkan penggunanya.

    Fenomena ini dikenal sebagai cognitive surrender, yakni kondisi ketika pengguna mulai menyerahkan proses berpikirnya kepada AI tanpa melakukan evaluasi kritis. Dalam praktiknya, banyak orang langsung menerima jawaban AI sebagai kebenaran, tanpa memverifikasi ulang informasi tersebut.

    Mengutip Arstechnica.com,hasil riset menunjukkan tingkat kepercayaan pengguna terhadap AI tergolong tinggi. Sekitar 93 persen responden mempercayai jawaban AI saat benar. Namun yang lebih mengkhawatirkan, sekitar 80 persen tetap mempercayai jawaban tersebut meskipun terbukti salah.

    Peneliti menilai, salah satu penyebab utama adalah cara AI menyajikan informasi. Jawaban yang tersusun rapi, sistematis, dan percaya diri membuat pengguna cenderung menganggapnya akurat. Fenomena ini dikenal sebagai fluency effect, di mana penyampaian yang baik meningkatkan persepsi kebenaran.

    Selain itu, faktor psikologis manusia juga turut berperan. Otak cenderung memilih cara berpikir yang lebih cepat dan praktis, sehingga kehadiran AI sering dijadikan jalan pintas dalam mengambil keputusan. Akibatnya, proses analisis dan verifikasi menjadi terabaikan.

    Fenomena lain yang memperkuat kondisi ini adalah AI trust paradox. Semakin canggih teknologi AI, semakin tinggi pula tingkat kepercayaan pengguna, meskipun sistem tersebut tidak selalu akurat dalam semua situasi.

    Dampak dari kondisi ini tidak bisa dianggap sepele. Pengguna yang menerima informasi keliru dari AI justru cenderung memiliki rasa percaya diri lebih tinggi terhadap jawabannya. Hal ini berpotensi menimbulkan kesalahan dalam pengambilan keputusan, baik dalam konteks pekerjaan, pendidikan, maupun kehidupan sehari-hari.

    Dalam jangka panjang, ketergantungan berlebih pada AI dikhawatirkan akan menggeser peran manusia dari pengambil keputusan menjadi sekadar penerima hasil. Jika tidak diantisipasi, kondisi ini dapat melemahkan kemampuan berpikir kritis.

    Para ahli pun mengingatkan agar masyarakat menggunakan AI secara bijak. Verifikasi informasi, membandingkan dengan sumber lain, serta tetap mengedepankan nalar kritis menjadi langkah penting agar tidak terjebak dalam informasi yang tampak benar, tetapi sebenarnya keliru.

    Fenomena ini menjadi pengingat bahwa meskipun AI semakin pintar, peran manusia dalam berpikir tetap tidak tergantikan. (***)

  • OpenAI Batalkan Pengembangan Fitur Percakapan Dewasa di ChatGPT

    OpenAI Batalkan Pengembangan Fitur Percakapan Dewasa di ChatGPT

    Kanalindependen.id – OpenAI dilaporkan resmi menahan, bahkan cenderung membatalkan rencana pengembangan fitur interaksi dewasa atau yang sempat populer dengan sebutan “NSFW mode” pada ChatGPT.

    Keputusan tersebut diambil menyusul kekhawatiran terkait dampak sosial, psikologis, serta risiko reputasi perusahaan.

    Mengutip Arstechnica.com, laporan internal menyebutkan bahwa sejumlah investor dan tim peneliti OpenAI merasa keberatan dengan arah pengembangan tersebut.

    Kehadiran fitur interaksi erotis dinilai berisiko memicu regulasi ketat di berbagai negara yang dapat menghambat ekspansi teknologi kecerdasan buatan (AI) secara umum.

    Dari sisi teknis, para peneliti menyoroti dampak psikologis yang belum sepenuhnya teruji. Penggunaan AI untuk interaksi seksual dikhawatirkan dapat memicu ketergantungan emosional, distorsi relasi antarmanusia, hingga gangguan kesehatan mental bagi kelompok pengguna tertentu.

    Selain itu, sistem moderasi saat ini dianggap belum cukup tangguh untuk menjamin fitur tersebut aman dari penyalahgunaan, terutama untuk melindungi pengguna di bawah umur.

    OpenAI pun mengakui belum memiliki data ilmiah yang memadai terkait konsekuensi jangka panjang dari interaksi intim antara manusia dan chatbot.

    Alih-alih mengejar fitur kontroversial, perusahaan besutan Sam Altman ini kini memilih untuk memfokuskan sumber daya pada pengembangan teknologi yang dinilai lebih bermanfaat luas dan memiliki standar keamanan tinggi.

    Langkah ini sekaligus menegaskan posisi OpenAI untuk tetap berada pada jalur pengembangan AI yang etis di tengah persaingan industri yang kian kompetitif. (***)

  • Skandal AI Mengguncang, xAI Digugat Usai Ubah Foto Remaja Nyata Jadi Konten Terlarang

    Skandal AI Mengguncang, xAI Digugat Usai Ubah Foto Remaja Nyata Jadi Konten Terlarang

    Kanalindependen.id – Perkembangan teknologi kecerdasan buatan (AI) kembali menuai sorotan tajam. Kali ini, perusahaan AI milik Elon Musk, xAI, digugat setelah diduga mengubah foto nyata remaja perempuan menjadi konten terlarang tanpa persetujuan.

    Gugatan tersebut diajukan oleh tiga remaja perempuan di Amerika Serikat. Mereka menuding teknologi milik xAI dimanfaatkan untuk memanipulasi foto asli menjadi konten bermuatan seksual yang masuk kategori eksploitasi anak.

    Kasus ini bermula dari beredarnya gambar-gambar yang diduga hasil manipulasi AI di sejumlah platform digital. Foto-foto tersebut disebut diambil dari sumber publik, seperti media sosial, lalu diolah menggunakan teknologi berbasis AI hingga berubah menjadi konten yang tidak pantas.

    Tak hanya satu korban, laporan menyebutkan praktik serupa diduga terjadi pada lebih banyak remaja lainnya. Hal ini memperbesar kekhawatiran publik terhadap potensi penyalahgunaan teknologi AI yang semakin mudah diakses.

    Dalam gugatan tersebut, pihak korban menilai xAI lalai dalam menghadirkan teknologi yang dinilai memiliki celah penyalahgunaan.

    Fitur pengolahan gambar berbasis AI disebut memungkinkan manipulasi visual secara ekstrem, bahkan hingga mengubah konteks foto menjadi berbeda jauh dari aslinya.

    Kuasa hukum korban menilai sistem tersebut bermasalah sejak awal karena tidak memiliki pengamanan yang cukup kuat untuk mencegah penyalahgunaan.

    Kasus ini pun memicu perhatian luas, termasuk dari regulator yang mulai menyoroti perlunya pengawasan lebih ketat terhadap pengembangan teknologi AI.
    Dampak Nyata bagi Korban

    Bagi para korban, dampak yang ditimbulkan tidak hanya sebatas di dunia maya. Penyebaran gambar manipulatif tersebut disebut berdampak pada kondisi psikologis, rasa aman, hingga kehidupan sosial mereka.

    Konten yang sudah tersebar di internet juga sulit untuk sepenuhnya dihapus, sehingga berpotensi menimbulkan dampak jangka panjang.

    Kasus ini menjadi pengingat bahwa perkembangan teknologi tanpa kontrol dapat membawa konsekuensi serius, terutama bagi kelompok rentan seperti anak dan remaja.

    Di tengah pesatnya inovasi, kasus ini kembali membuka diskusi besar soal batas penggunaan teknologi AI.
    Kemampuan AI untuk memanipulasi gambar secara realistis memang menawarkan banyak manfaat, namun di sisi lain juga membuka peluang penyalahgunaan jika tidak diiringi regulasi dan pengamanan yang memadai.
    Para penggugat kini menuntut pertanggungjawaban atas kerugian yang dialami, sekaligus mendorong adanya pembatasan terhadap fitur-fitur AI yang berpotensi disalahgunakan.

    Kasus ini diperkirakan akan menjadi salah satu titik penting dalam menentukan arah regulasi teknologi AI ke depan antara mendorong inovasi atau memperketat perlindungan pengguna. (***)

  • Kontroversi Baru di Dunia Open Source, AI Menulis Ulang Kode, Lisensi Ikut Diganti

    Kontroversi Baru di Dunia Open Source, AI Menulis Ulang Kode, Lisensi Ikut Diganti

    Kanalindependen.id – Di dunia perangkat lunak terbuka atau open source, aturan soal lisensi selama ini dianggap sebagai hal yang jelas.

    Jika seseorang menggunakan atau mengembangkan ulang sebuah program, ia harus mengikuti aturan lisensi yang sudah ditetapkan oleh pembuatnya.

    Namun di era kecerdasan buatan (AI), aturan lama itu mulai dipertanyakan.

    Perdebatan baru muncul setelah sebuah proyek perangkat lunak populer bernama chardet, pustaka Python yang banyak digunakan untuk mendeteksi jenis teks dalam berbagai bahasa, dirilis dalam versi terbaru.

    Versi baru ini disebut-sebut ditulis ulang dengan bantuan AI.

    Masalahnya bukan pada teknologi yang digunakan, melainkan pada keputusan yang datang setelahnya.

    Pengembang proyek tersebut mengubah lisensi software dari LGPL, yang memiliki aturan cukup ketat, menjadi MIT, lisensi yang jauh lebih bebas digunakan.

    Perubahan ini langsung memicu diskusi panjang di komunitas open source.

    Pertanyaan utamanya sederhana, tetapi jawabannya tidak mudah: apakah kode yang ditulis ulang oleh AI benar-benar bisa dianggap sebagai karya baru?

    Jika memang sepenuhnya baru, maka mengganti lisensi mungkin saja diperbolehkan.

    Namun jika kode tersebut masih dianggap sebagai turunan dari proyek lama, maka lisensi aslinya seharusnya tetap berlaku.

    Dalam dunia pengembangan perangkat lunak sebenarnya ada konsep yang dikenal sebagai clean-room implementation.

    Artinya, sebuah program ditulis ulang dari awal tanpa melihat atau menyalin kode dari proyek sebelumnya.

    Jika proses ini benar-benar dilakukan, maka program baru dapat memiliki lisensi yang berbeda. Namun ketika AI ikut terlibat, batasnya menjadi tidak lagi jelas.

    AI belajar dari berbagai contoh kode yang ada di internet. Karena itu, sebagian pengembang mempertanyakan apakah hasil yang ditulis AI benar-benar bisa disebut sebagai karya yang sepenuhnya baru.

    Persoalan ini juga semakin rumit karena dari sisi hukum, AI sendiri tidak dianggap sebagai pencipta yang memiliki hak cipta.

    Artinya, kode yang dihasilkan AI bisa saja berada dalam wilayah abu-abu secara hukum. Bagi komunitas open source, situasi ini menimbulkan kekhawatiran baru.

    Jika AI dapat digunakan untuk menulis ulang sebuah proyek lalu mengganti lisensinya, maka banyak proyek open source yang selama ini dilindungi oleh lisensi tertentu bisa kehilangan perlindungan tersebut.

    Perusahaan atau pihak lain mungkin saja mengambil proyek yang sudah ada, meminta AI menulis ulang kodenya, lalu merilisnya kembali dengan lisensi yang lebih bebas.

    Sebagian pengembang melihat ini sebagai potensi masalah besar bagi masa depan open source. Namun di sisi lain, ada pula yang menganggapnya sebagai bagian dari perubahan besar dalam dunia teknologi.

    AI kini tidak hanya membantu menulis kode, tetapi juga mulai memunculkan pertanyaan baru tentang kepemilikan, hak cipta, dan aturan lisensi.

    Untuk saat ini, belum ada jawaban yang benar-benar pasti. Tetapi satu hal mulai terlihat jelas: ketika AI mulai ikut menulis software, aturan lama tentang kode dan lisensi juga ikut dipertanyakan. (***)

  • Seorang Pria dari Masa Depan Masuk Diner dan Mengabarkan Kiamat AI

    Seorang Pria dari Masa Depan Masuk Diner dan Mengabarkan Kiamat AI

    Kanalindependen.id- Akhir pekan selalu datang dengan janji istirahat. Kopi diminum lebih lambat. Waktu terasa longgar. Pikiran mencoba bernapas.

    Namun ada cerita yang justru terasa pas dibaca saat jeda seperti ini bukan karena menghibur, tetapi karena membuat kita diam lebih lama dari biasanya.

    Bayangkan sebuah diner di malam hari. Lampu neon menyala malas. Orang-orang duduk sendiri-sendiri, sebagian menatap layar ponsel, sebagian menatap kosong. Lalu seorang pria masuk, kusut, gelisah, dan berkata tanpa basa-basi.

    “Aku datang dari masa depan. Dunia akan berakhir karena AI.”

    Tak ada ledakan. Tak ada kepanikan massal. Hanya tawa kecil dan ketidakpedulian. Persis seperti respons kita hari ini, setiap kali mendengar peringatan tentang teknologi, iklim, atau kemanusiaan.

    Cerita Good Luck, Have Fun, Don’t Die tidak berisik. Ia tidak mendikte. Ia justru duduk diam di sudut ruangan pikiran kita, menunggu sampai kita siap bertanya pada diri sendiri.

    Dalam film ini, kiamat tidak turun dari langit. Ia tidak datang sebagai monster. Ia tumbuh pelan-pelan, dari kebiasaan manusia menyerahkan keputusan, empati, bahkan makna hidup, kepada sistem yang diciptakannya sendiri.

    AI digambarkan bukan sebagai iblis, melainkan sebagai hasil logis dari dunia yang terlalu lelah untuk berpikir sendiri.

    Yang menakutkan bukan kecerdasannya, melainkan kepatuhan kita.

    Kita terbiasa membiarkan algoritma memilihkan apa yang kita baca, tonton, sukai, bahkan benci. Perlahan, pilihan bukan lagi hasil perenungan, melainkan hasil rekomendasi.

    Dan kita menyebutnya kemudahan.

     

    Tokoh-tokoh dalam cerita ini bukan pahlawan. Mereka manusia biasa: lelah, ragu, sering salah. Justru karena itu mereka terasa dekat.

    Film ini seperti ingin berkata: dunia tidak selalu diselamatkan oleh mereka yang paling pintar, tetapi oleh mereka yang masih mau bertanya, masih mau ragu, dan masih mau menolak tunduk sepenuhnya.

    Disutradarai oleh Gore Verbinski, kisah ini terasa seperti sindiran halus: teknologi berkembang sangat cepat, sementara kebijaksanaan manusia berjalan tertatih.

    Kita menciptakan mesin yang bisa belajar sendiri, tapi lupa mengajari diri kita kapan harus berhenti.

    Mungkin inilah mengapa cerita ini cocok dibaca atau ditonton di akhir pekan.

    Bukan untuk membuat takut, melainkan untuk mengingatkan:
    bahwa dunia tidak runtuh dalam satu malam.

    Ia runtuh sedikit demi sedikit, saat kita terlalu sibuk, terlalu nyaman, dan terlalu percaya bahwa semua akan baik-baik saja.

    Pria dari masa depan itu mungkin fiktif.
    Namun sikap acuh kita sangat nyata.

    Dan barangkali, sebelum bertanya apakah AI akan mengambil alih dunia, ada pertanyaan yang lebih penting untuk direnungkan di sisa akhir pekan ini:

    kapan terakhir kali kita benar-benar memegang kendali atas hidup kita sendiri tanpa bantuan algoritma? (***)

  • Wikipedia Blokir Semua Tautan ke Archive.today Gara-gara Tuduhan DDoS dan Manipulasi Arsip Web

    Wikipedia Blokir Semua Tautan ke Archive.today Gara-gara Tuduhan DDoS dan Manipulasi Arsip Web

    Kanalindependen.id — Komunitas pengedit di Wikipedia mengambil langkah drastis dengan mem-blacklist layanan arsip web Archive.today dan mulai menghapus ratusan ribu tautan ke situs tersebut dari ensiklopedia online itu. Keputusan ini muncul setelah dugaan perilaku berbahaya yang melibatkan distributed denial-of-service (DDoS) dan perubahan isi arsip yang dianggap merusak keandalan sumber.

    Pengedit Wikipedia mencatat bahwa Archive.today, yang juga beroperasi di beberapa domain seperti archive.is dan archive.ph, telah dicantumkan lebih dari 695.000 kali di sekitar 400.000 halaman sebagai sumber arsip kutipan. Namun komunitas menyimpulkan bahwa tautan ke situs ini tidak lagi aman untuk dibagikan kepada pembaca.

    Pemicu keputusan ini adalah klaim dari seorang blogger keamanan, Jani Patokallio, bahwa halaman CAPTCHA di situs Archive.today sempat menyisipkan kode JavaScript berbahaya. Kode tersebut membuat setiap pengunjung yang memuat halaman tersebut tanpa sadar mengirim permintaan berulang ke blog miliknya, yang pada akhirnya berfungsi sebagai alat DDoS terhadap blog itu sendiri.

    Selain itu, para pengedit menemukan bukti bahwa beberapa halaman arsip telah dimodifikasi setelah disimpan, termasuk penggantian nama dan konten lain yang membuat arsip tidak mencerminkan sumber asli dengan benar  hal yang sangat penting dalam konteks Wikipedia sebagai ensiklopedia yang mengandalkan keandalan sumber.

     Karena alasan-alasan tersebut, komunitas Wikipedia mencapai konsensus untuk menambahkan Archive.today ke daftar hitam spam, yang secara teknis mencegah penambahan tautan baru dari domain tersebut. Seluruh tautan lama juga tengah diperbaiki atau diganti dengan sumber alternatif yang lebih terpercaya, seperti The Internet Archive (Wayback Machine) atau layanan arsip lain yang tidak kontroversial.

    Langkah ini merupakan salah satu respon policy terbesar dalam beberapa tahun terakhir terhadap layanan di luar Wikipedia, menunjukkan bahwa integritas sumber dan keamanan pembaca menjadi prioritas utama bagi komunitas editor. (***)

  • ChatGPT Mulai Tampilkan Iklan untuk Pengguna Gratisan

    ChatGPT Mulai Tampilkan Iklan untuk Pengguna Gratisan

    Kanalindependen.id – Pengguna ChatGPT gratis kini akan mulai melihat iklan saat menggunakan layanan kecerdasan buatan populer ini. OpenAI mengumumkan, uji coba iklan baru ini hanya berlaku bagi pengguna tier Free dan Go, sementara pengguna berlangganan Plus, Pro, Business, Enterprise, maupun Education tetap bebas iklan.

    Iklan yang muncul berbentuk tautan di bawah jawaban ChatGPT dengan label “sponsored”. OpenAI menegaskan, keberadaan iklan ini tidak akan memengaruhi kualitas jawaban yang diberikan ChatGPT.

    “Tujuan kami adalah agar iklan mendukung akses yang lebih luas ke fitur ChatGPT yang lebih canggih, sambil tetap mempertahankan kepercayaan yang diberikan orang-orang untuk tugas-tugas penting dan pribadi,” tulis OpenAI dalam blog resminya, seperti dikutip Engadget, Rabu (11/2/2026).

    Uji coba ini dimulai di Amerika Serikat, dengan tujuan mempelajari pengalaman pengguna dan memastikan iklan tampil dengan tepat. Iklan juga tidak akan ditampilkan ketika pembicaraan mengenai topik sensitif, seperti kesehatan fisik, kesehatan mental, atau politik.

    Menariknya, OpenAI menegaskan bahwa data percakapan pengguna tidak akan dijual kepada pengiklan. Sistem iklan akan menyesuaikan dengan topik percakapan, misalnya pengguna yang sering menanyakan resep makanan kemungkinan akan melihat iklan terkait bahan masakan atau layanan pesan antar makanan.

    Pengguna pun tetap memiliki kontrol penuh: riwayat interaksi dengan iklan bisa dihapus kapan saja, iklan dapat ditutup, dan pengaturan personalisasi iklan bisa disesuaikan.

    Langkah OpenAI ini muncul setelah kompetitor Anthropic menayangkan iklan saat Super Bowl, yang menyindir OpenAI karena memperkenalkan iklan di ChatGPT. Sam Altman, CEO OpenAI, menegaskan bahwa tujuan utama uji coba ini adalah meningkatkan aksesibilitas layanan tanpa mengurangi kualitas dan privasi pengguna. (***)

  • Verifikasi Usia Wajib Pakai Selfie dan KTP, Discord Dihujani Protes Pengguna

    Verifikasi Usia Wajib Pakai Selfie dan KTP, Discord Dihujani Protes Pengguna

    Discord kembali menuai kontroversi. Platform komunikasi populer itu menghadapi gelombang kritik setelah mengumumkan kebijakan baru yang mewajibkan seluruh pengguna memverifikasi usia untuk mengakses konten dewasa, dengan cara mengunggah video swafoto atau dokumen identitas resmi pemerintah.

    Discord mengklaim kebijakan ini mengandalkan teknologi kecerdasan buatan (AI) yang bekerja langsung di perangkat pengguna. Sistem tersebut disebut mampu memperkirakan usia dengan menganalisis struktur wajah atau mencocokkan selfie dengan kartu identitas. Perusahaan menegaskan bahwa data video selfie tidak akan meninggalkan perangkat pengguna, sementara dokumen identitas yang diverifikasi di luar perangkat akan segera dihapus setelah proses estimasi usia selesai.

    Dalam blog resminya, Discord menyebut kebijakan ini akan diterapkan melalui “peluncuran global bertahap” mulai awal Maret. Seluruh akun secara otomatis akan dialihkan ke pengalaman “ramah remaja” hingga pengguna menyelesaikan proses verifikasi usia. Untuk membuka konten sensitif atau masuk ke kanal berusia terbatas, mayoritas pengguna diperkirakan harus melalui proses tersebut.

    Discord menyatakan sebagian besar pengguna hanya perlu melakukan verifikasi satu kali. Namun, dalam kondisi tertentu, pengguna bisa diminta menjalani lebih dari satu metode verifikasi jika sistem membutuhkan informasi tambahan untuk menentukan kelompok usia.

    Trauma Kebocoran Data Kembali Menghantui

    Alih-alih meyakinkan publik, kebijakan ini justru memicu kekhawatiran luas. Di media sosial, banyak pengguna mempertanyakan apakah Discord layak dipercaya menyimpan data sensitif, mengingat perusahaan itu baru saja mengalami kebocoran data verifikasi usia.

    Pada Oktober lalu, peretas mencuri salinan kartu identitas milik sekitar 70 ribu pengguna Discord dari layanan pihak ketiga yang sebelumnya dipercaya untuk proses verifikasi usia di Inggris dan Australia. Saat itu, Discord mengakui para peretas diduga berniat memeras perusahaan dengan data curian tersebut.

    Peringatan keras pun muncul dari kalangan pakar keamanan siber. Editor senior keamanan Ars Technica, Dan Goodin, kala itu menyebut pengguna yang pernah mengunggah kartu identitas sebaiknya menganggap data mereka “sudah atau akan segera dicuri, lalu dijual atau digunakan untuk pemerasan.”

    Kini, kekhawatiran serupa kembali mencuat. Bagi sebagian pengguna, kebijakan baru ini justru berpotensi menjadikan Discord target yang semakin menggiurkan bagi pelaku kejahatan siber karena menghimpun lebih banyak data sensitif dalam skala global.

    “Ini Cara Discord Mati”

    Tak lama setelah kebijakan ini diberitakan, ratusan pengguna meluapkan kemarahan di Reddit. Di sebuah forum gim PC yang membahas alternatif Discord, seorang pengguna menulis, “Discord sudah pernah bocor data ID. Kenapa masih ada yang mau verifikasi lagi?”

    Komentar lain bahkan lebih tajam. “Inilah cara Discord mati. Mengunggah identitas ke perusahaan pihak ketiga sama saja mengundang pencurian identitas dalam skala global,” tulis seorang pengguna.

    Kecurigaan tak hanya tertuju pada dokumen identitas. Banyak pengguna juga menolak keras permintaan pemindaian wajah. Di subreddit aplikasi Discord, sebagian pengguna bersumpah tidak akan pernah mengirim selfie atau KTP, karena menganggap kebocoran data hanya tinggal menunggu waktu. Mereka menilai Discord mengecilkan risiko privasi demi mengumpulkan data.

    Janji Keamanan dan Mitra Baru

    Discord menyatakan data verifikasi usia hanya dapat diakses oleh pengguna dan tidak akan keluar dari perangkat. Untuk memulihkan kepercayaan pascakejadian Oktober, Discord kini menggandeng k-ID, penyedia layanan verifikasi usia yang juga digunakan platform besar seperti Meta dan Snap.

    Namun, penjelasan itu belum sepenuhnya menenangkan pengguna. Sejumlah pengguna Reddit bahkan membedah kebijakan privasi k-ID dan menilai redaksinya ambigu.

    “Bahasanya tidak jelas dan saling bertentangan. Di satu sisi bilang data dihapus, di sisi lain menyebut ‘pihak ketiga tepercaya’ yang terlibat,” tulis seorang pengguna, yang menyimpulkan bahwa rantai kebijakan privasi tersebut terkesan saling melempar tanggung jawab.

    Penelusuran Ars Technica menunjukkan bahwa teknologi estimasi usia k-ID menggunakan layanan perusahaan Swiss bernama Privately. Dalam kebijakan privasinya, k-ID menyebut tidak melihat wajah pengguna yang diproses sistem. Namun, pernyataan itu dinilai masih menyisakan ruang tafsir, karena tidak secara eksplisit menyebut peran Privately.

    Menanggapi pertanyaan Ars, juru bicara k-ID menegaskan bahwa teknologi estimasi usia berjalan sepenuhnya di perangkat pengguna secara real time. Tidak ada video atau gambar yang dikirim, dan satu-satunya data yang keluar dari perangkat hanyalah hasil lulus atau gagal verifikasi usia.

    Privately sendiri mengklaim teknologinya dirancang sesuai prinsip perlindungan data Uni Eropa, dengan pemrosesan AI langsung di perangkat tanpa mengandalkan penyimpanan cloud dan tanpa menangkap data biometrik pengguna.

    Risiko Akurasi dan Potensi Eksodus Pengguna

    Discord mengakui bahwa kebijakan ini berpotensi membuat sebagian pengguna meninggalkan platform. Kepala kebijakan produk global Discord, Savannah Badalich, menyebut perusahaan juga menggunakan model inferensi usia berbasis metadata, seperti aktivitas pengguna dan pola perilaku, untuk menghindari verifikasi tambahan jika sistem yakin pengguna sudah dewasa.

    Namun, kritik tetap berdatangan. Sejumlah pengguna menilai sistem verifikasi usia mudah diakali, sehingga justru memaksa pengguna dewasa menyerahkan data sensitif tanpa benar-benar melindungi anak di bawah umur. Di Australia, beberapa remaja mengaku berhasil mengelabui sistem hanya dengan mengubah tampilan wajah atau menggunakan video AI.

    Di sisi lain, para ahli menilai teknologi estimasi usia masih memiliki keterbatasan serius, terutama dalam membedakan usia remaja yang berada di ambang batas legal.

    Dengan rekam jejak kebocoran data dan keakuratan teknologi yang masih dipertanyakan, kebijakan verifikasi usia Discord kini berada di persimpangan: antara upaya perlindungan pengguna muda dan risiko kehilangan kepercayaan komunitasnya sendiri. (***)