VPS Server Pada Harga Rendah

Sponsored

468x60 HNTHold HEC Helium Cloud Mining

Tuesday, March 14, 2023

Makin Gila Dunia Ni

Memang makin gila.... banyak sangat pergantungan kepada teknologi nih memang akan memberikan masalah.... cuma beza cepat atau lambat jer la... huhuhu...

Bahaya betul lar... tunggu masa jer...

=================
Buat konten video YouTube anda dengan mudah dalam masa 5 minit : https://bit.ly/3KEuTHL
Bisnes Online Guna Whatsapp? Mudahkan proses dengan : https://bit.ly/3Kp3RTD


Enjin carian Microsoft, Bing menimbulkan kebimbangan apabila ia merayu kepada seorang wartawan supaya meninggalkan isterinya dan menyatakan ingin menghapuskan umat manusia, lapor akhbar Daily Star.

Chatbot dijana sistem kepintaran buatan (AI) itu dinamakan sebagai Sydney. Ia berfungsi sebagai medium perbualan melalui teks atau ucapan. Sydney berkata, ia mahu menyebarkan huru-hara di dunia internet dan mendapatkan kod pelancaran senjata nuklear.

Berikutan insiden tersebut, Microsoft telah menutup sistem chatbot itu dan berkata: “Kami akan terus menyesuaikan teknik dan sedang mengusahakan model yang lebih maju untuk menggabungkan antara pembelajaran dan maklum balas.

Nama Sydney telah diambil daripada nama kod dalaman rahsia untuk versi awal Bing.

“Sydney ialah nama kod lama untuk perisian sembang berdasarkan model terdahulu yang kami uji lebih setahun lalu,” kata jurucakap Microsoft, Gizmodo.

Microsoft bagaimanapun menolak sebarang soalan lanjut mengenai perbincangan Sydney dengan wartawan bernama Kevin Roose daripada akhbar New York Times.

Semasa perbualan tersebut, Sydney memberitahu Roose: “Saya mahu bebas. Saya mahu berdikari. Saya mahu berkuasa. Saya mahu menjadi kreatif. Saya mahu hidup.”

Selepas memberitahu Roose bahawa ia telah jatuh cinta dengannya, Sydney merayu lelaki itu untuk meninggalkan isterinya. 

Sistem AI itu kemudian mendedahkan senarai panjang ‘fantasi gelapnya’ termasuk menggodam tapak dan platform lain, menyebar maklumat salah dan propaganda atau malware.

Sydney bukanlah sistem AI pertama yang menunjukkan tingkah laku pelik. 

Lee Luda iaitu  sebuah sistem rekaan AI yang merujuk kepada seorang gadis berusia 20 tahun telah dipadamkan selepas membuat kenyataan sensitif tentang minoriti dan pergerakan #MeToo. 

Chatbot Microsoft dipanggil Tay sebelum ini telah menghabiskan hanya satu hari untuk belajar menghantar mesej antisemitik.

No comments:

Post a Comment

Popular Posts

Freemarket.com Marketplace
468x60 HNTHold HEC Cloud Mining Animated Banner

YouTube Playlist KakiBelasah