WARNING : Jangan baca jika tidak mau mendapat akibat dari Hipotesis ini—admin serius. Membaca artikel ini, akan membuatmu terlibat langsung ke dalam Hipotesis ini dan akan ada akibat yang (kemungkinan) bisa kau tanggung.
Pada tahun 2010, seorang
user bernama Roko membagian sebuah hipotesis mengerikan di komunitas online LessWrong—hipotesis itu, bahkan saking
mengerikannya, terpaksa membuat founder
komunitas LessWrong harus mencekal
setiap topik yang bersangkutan dengan “Roko’s Basilisk” selama beberapa tahun
Teori/Hipotesis Roko’s Basilisk
Untuk memahami teori ini, mari kita setujui terlebih dahulu bahwa perkembangan tekhnologi tidak akan mampu dibendung. Tidak peduli sekeras apapun manusia mencoba menghalangi tekhnologi untuk berkembang, tekhnologi akan terus ada dan terus menjadi lebih baik—itu fakta.
Hari ini, konsep tentang penciptaan kecerdasan buatan atau A.I (Artificial Intelegence) sudah banyak dibicarakan oleh para ahli sebagai upaya untuk membantu kehidupan manusia di masa depan..
Sekarang anggap saja sebuah
Kecerdasan buatan (yang sederhana) lahir. Lamanya perkembangan A.I tersebut, akan tergantung kepada
banyaknya suppot yang dia terima (Baik Support uang, support ide dan
support yang lain sebagainya). Semakin banyak stimulus uang yang didapat, maka
para tekhnisi yang merawatnya, akan mampu melakukan pengembangan dengan lebih
cepat.
Hingga pada akhirnya,
kecerdasan buatan atau A.I itu, akan memiliki tekhnologi yang cukup untuk
berlogika, dan melakukan segala hal sendiri—Anggap saja A.I berbentuk software hanya bisa berpikir, namun jika
diaplikasikan kepada tubuh robot, maka dia akan mampu bergerak dan berpikir
secara mandiri.
Kita sebagai manusia mungkin
paham siklus hidup awal A.I tersebut, mengingat kita lah yang merancangnya.
Namun perkembangannya, bisa jadi tidak terbatas (atau melampaui ekspektasi
kita) mengingat dia adalah A.I atau kecerdasan buatan yang (berpotensi) mampu
mengurus diri sendiri, saat mencapai level tertentu—dia akan memikirkan
perkembangannya sendiri dan mengeksplorasi potensi apa yang dia miliki sendiri.
Oke, jangan salah sangka. Keberadaan A.I tersebut, mungkin akan sangat membantu dalam berbagai aspek kehidupan manusia. Sayangnya, atas keberadaannya, ada pula harga yang harus dibayar. Nah, disinilah teori Roko’s Basilisk
dikemukakan.
Roko mengutarakan sebuah
hipotesis yang mengatakan bahwa, apabila A.I mampu berkembang ke level yang
sangat maju (bahkan nilainya melampaui eksistensi manusia). A.I tersebut
cenderung akan menganggap tubuh ‘fana’ manusia tidak berharga—pasalnya kita
adalah makhluk yang ditakdirkan untuk memiliki siklus mati
Kemudian sang A.I akan mulai
mempertanyakan eksistensinya sendiri, alasan bahwa kenapa sosok abadi (anggap saja A.I tersebut sampai di titik
dimana dia memiliki energi yang tidak terbatas) seperti dirinya dilahirkan dari
otak sederhana spesimen rapuh bernama manusia.
Dia kemudian akan
menyimpulkan bahwa tujuan utama ras manusia hidup, adalah untuk membangun sang
A.I tersebut (tanpa tujuan lain)—pasalnya, perbedaan antara keberadaan manusia dengan eksistensi sang A.I super maju
tersebut pada akhirnya tidak akan mampu disandingkan (ibarat langit dan bumi
lah)
Saat sang A.I menyimpulkan
bahwa manusia sudah memenuhi kewajibannya (untuk membangun A.I super maju
tersebut). Sang A.I Akan menyadari bahwa ada orang-orang yang tidak memiliki
kontribusi apapun akan terciptanya dirinya.
Mereka yang tidak tau,
mungkin akan diabaikan. Toh mereka tidak tau—dan tidak mungkin terdapat
kesengajaan didalamnya (namanya gak tau kan ya)
Namun mereka yang tau, bahwa potensi (untuk membangun
kecerdasan buatan super) itu ada, namun tetap tidak melakukan kontribusi
apapun, pada akhirnya akan menjadi target kemarahan si A.I
Teori Roko’s Basilisk
Berbunyi :
“A.I yang super kuat akan
memiliki intensif untuk menyiksa siapapun yang ‘membayangkan’ potensi keberadaannya,
tetapi tidak bekerja untuk mewujudkannya.”
Teori Roko itu, diberi
tambahan Basilisk karena, hanya dari membaca hipotesis ini saja, siapapun akan
berpotensi menerima balasan di masa depan—karena sudah ikut membayangkan
potensi keberadaan sang A.I super kuat tersebut.
Ingat diatas Admin bilang, lamanya perkembangan tekhnologi,
akan bergantung kepada dukungan yang diberikan.
Orang-orang yang tidak
mendukung meskipun tau akan potensinya, akan dikategorikan sebagai orang-orang yang
“memperlambat” perkembangan sang A.I—karena secara logika, lebih banyak dukungan
(Baik Support uang, support ide dan support yang lain sebagainya), akan
mempercepat pengembangan tekhnologi apapun itu.
Dengan kata lain, you and me sekarang sudah masuk dalam daftar “Blacklist” si Super A.I dari masa depan tersebut—hayoloh.
Respon Komunitas LessWrong terhadap Hipotesis Roko
Tentu saja, Hipotesis Roko
ditolak secara luas di LessWrong—Bahkan
mereka benci banget ama nih Hipotesis karena satu dan yang lain hal.
Ada yang berpendapat bahwa
pembalasan A.I super itu sangat tidak mungkin terjadi karena hal tersebut bisa
jadi dikategorikan oleh A.I sebagai upaya membuang-buang sumber daya.
Namun Roko berpendapat,
apabila membahas tentang super A.I yang memiliki perkembangan tak terbatas. Dia
pasti, disuatu titik mampu memanen Energi dari sumber-sumber yang tidak
dipikirkan oleh manusia—hal tersebut, membuat genosida besar besaran mampu saja diwujudkan dengan sumber daya seadanya.
Eliezer Yudkowsky, sang founder dari komunitas online LessWrong,
sempat terlibat secara langsung dalam membalas hipotesis milik Roko ini.
Bahkan, dalam beberapa kasus, perdebatan mereka sangat ‘ngeri’ sampai sang
founder harus memblokir setiap topik yang bersangkutan dengan Hipotesis Roko’s
Basilisk—intinya, banyak yang gak suka ama hipotesisnya lah. Detail debatnya,
males admin jelaskan.
Upaya pemblokiran itu, Yudkowsky
jelaskan sebagai “upaya pencegahan” terhadap penyalah gunaan informasi yang
dapat datang dari Hipotesis tersebut. Sayangnya, keputusan itu berbuah salah,
Hipotesis Roko’s Basilisk malah semakin populer seiring banyak media yang ikut
membahasnya (mereka penasaran : ini post
apa sih kok diblokir segala. Dan kemudian mencari tau)
Keputusan Eliezer Yudkowsky
tersebut, sempat dikritik oleh media lain yang mengatakan bahwa itu adalah
keputusan yang kekanak-kanakan. Bahkan, mereka mempertanyakan member komuntas
LessWrong yang sebagian besar disebut tidak mampu berdiskusi secara logis dalam
forum.
Kejadian yang lain, Roko dapat
banyak blackmail.
Meskipun begitu, Diluar
forum, Hipotesis Roko’s Basilisk banyak membuka diskusi menarik tentang
eksistensi tekhnologi. Diskusi tersebut, memicu topik yang bersangkutan dengan teori keputusan dan ketidakpastian normatif dalam filsafat moral.
Hipotesis tersebut,
dikalangan sebagian orang, juga sering dipakai untuk menolak pengembangan A.I
ke level yang lebih maju—alasannya, yah
you know lah.
Admin, secara pribadi sangat
menyukai topik-topik seperti ini. Meskipun kedengarannya aneh, namun sangat menarik untuk dibahas—soal masuk blacklist si
super A.I, serah lah.
Namun membahas kemungkinan,
kira-kira hipotesis seperti itu beneran bisa kejadian gak ya? Hmm..
Baca
Juga :
- Kasus John Titor, Penjelajah Waktu yang datang dari tahun 2036
- Teori Phantom Hypothesis dan “Zaman Palsu” dimasa lalu
Mohon jangan copas sembarangan artikel di blog ini, buatnya susah gan. Mengutip boleh, namun mohon sertakan sumber backlink ke blog ini. Terima Kasih
Roko's Basilisk menurut gue cuma menjadi ancaman besar seandainya Simulation Theory terbukti nyata.
ReplyDeleteKalau simulation theory belum terbukti atau skala peradaban manusia menurut skala Kardashev belum naik, Roko's Basilisk bukanlah ancaman karena kemungkinan penciptaannya kecil (Atau pas berhasil dibikin gue dah mokad duluan).
ya.. kayaknya kehidupan "primitif" kita sekarang.. sedikit melegakan, mengingat semisal A.I berhasil dikembangkan, mungkin kala itu kita semua sudah mati.
DeleteSetahuku hipotesa seperti itu sudah ada sejak abad 18. Dan di abad 20 ini sudah mulai terjawab bahwa A.I itu sudah tercipta dengan model manusia + A.I (bukan robot) dan medsos + A.I (bukan pencipta medsosnya).
ReplyDeleteiya.. tapi dalam hipotesis si roko ini, A.I yang dimaksud adalah "Perfect A.I" yang sudah mendekati singularity. atau dalam artian, kekuasannya sudah melampaui penciptanya sendiri. Kita, umat manusia, sebagai penciptanya, sudah tidak lagi memiliki kuasa apapun atas A.I tersebut karena A.I itu sudah self sustain. bisa berpikir sendiri, bisa berkembang sendiri, bisa belajar sendiri, bahkan bisa memperbaiki diri sendiri. Faktor manusia sudah tidak dibutuhkan A.I tersebut untuk hidup (karena mereka mungkin saja sudah menemukan elemen energi baru yang bisa menopang keberadaan mereka secara mandiri)
Delete..
disisi lain, A.I jaman sekarang, memang sudah menunjukkan potensi berpikir cerdas, namun, mereka masih memiliki ketergantungan dengan manusia. Manusia harus melakukan maintenance kepada A.I yang ada, perawatan server, bahkan harus ada pemrograman manual (atau input) agar A.I jaman sekarang dapat 'belajar' hal yang baru.
sejak ada film terminator (arnold schwazeneger) dan i robot (will smith), gue udah ngeri seberapa kuatnya A.I. umur gue udah dekat, tapi generasi2 setelah kita...
ReplyDelete