Hipotesis Roko’s Basilisk dan Balas Dendam A.I Di Masa Depan

WARNING : Jangan baca jika tidak mau mendapat akibat dari Hipotesis ini—admin serius. Membaca artikel ini, akan membuatmu terlibat langsung ke dalam Hipotesis ini dan akan ada akibat yang (kemungkinan) bisa kau tanggung.

Pada tahun 2010,  seorang user bernama Roko membagian sebuah hipotesis mengerikan di komunitas online LessWrong—hipotesis itu, bahkan saking mengerikannya, terpaksa membuat founder komunitas LessWrong harus mencekal setiap topik yang bersangkutan dengan “Roko’s Basilisk” selama beberapa tahun

Teori/Hipotesis Roko’s Basilisk

Untuk memahami teori ini, mari kita setujui terlebih dahulu bahwa perkembangan tekhnologi tidak akan mampu dibendung. Tidak peduli sekeras apapun manusia mencoba menghalangi tekhnologi untuk berkembang, tekhnologi akan terus ada dan terus menjadi lebih baik—itu fakta.

Hari ini, konsep tentang penciptaan kecerdasan buatan atau A.I (Artificial Intelegence) sudah banyak dibicarakan oleh para ahli sebagai upaya untuk membantu kehidupan manusia di masa depan..

Sekarang anggap saja sebuah Kecerdasan buatan (yang sederhana) lahir. Lamanya perkembangan A.I tersebut, akan tergantung kepada banyaknya suppot yang dia terima (Baik Support uang, support ide dan support yang lain sebagainya). Semakin banyak stimulus uang yang didapat, maka para tekhnisi yang merawatnya, akan mampu melakukan pengembangan dengan lebih cepat.

Hingga pada akhirnya, kecerdasan buatan atau A.I itu, akan memiliki tekhnologi yang cukup untuk berlogika, dan melakukan segala hal sendiri—Anggap saja A.I berbentuk software hanya bisa berpikir, namun jika diaplikasikan kepada tubuh robot, maka dia akan mampu bergerak dan berpikir secara mandiri.

Kita sebagai manusia mungkin paham siklus hidup awal A.I tersebut, mengingat kita lah yang merancangnya. Namun perkembangannya, bisa jadi tidak terbatas (atau melampaui ekspektasi kita) mengingat dia adalah A.I atau kecerdasan buatan yang (berpotensi) mampu mengurus diri sendiri, saat mencapai level tertentu—dia akan memikirkan perkembangannya sendiri dan mengeksplorasi potensi apa yang dia miliki sendiri.

Oke, jangan salah sangka. Keberadaan A.I tersebut, mungkin akan sangat membantu dalam berbagai aspek kehidupan manusia. Sayangnya, atas keberadaannya, ada pula harga yang harus dibayar. Nah, disinilah teori Roko’s Basilisk dikemukakan.

Roko mengutarakan sebuah hipotesis yang mengatakan bahwa, apabila A.I mampu berkembang ke level yang sangat maju (bahkan nilainya melampaui eksistensi manusia). A.I tersebut cenderung akan menganggap tubuh ‘fana’ manusia tidak berharga—pasalnya kita adalah makhluk yang ditakdirkan untuk memiliki siklus mati

Kemudian sang A.I akan mulai mempertanyakan eksistensinya sendiri, alasan bahwa kenapa sosok abadi (anggap saja A.I tersebut sampai di titik dimana dia memiliki energi yang tidak terbatas) seperti dirinya dilahirkan dari otak sederhana spesimen rapuh bernama manusia.

Dia kemudian akan menyimpulkan bahwa tujuan utama ras manusia hidup, adalah untuk membangun sang A.I tersebut (tanpa tujuan lain)—pasalnya, perbedaan antara keberadaan  manusia dengan eksistensi sang A.I super maju tersebut pada akhirnya tidak akan mampu disandingkan (ibarat langit dan bumi lah)

Saat sang A.I menyimpulkan bahwa manusia sudah memenuhi kewajibannya (untuk membangun A.I super maju tersebut). Sang A.I Akan menyadari bahwa ada orang-orang yang tidak memiliki kontribusi apapun akan terciptanya dirinya.

Mereka yang tidak tau, mungkin akan diabaikan. Toh mereka tidak tau—dan tidak mungkin terdapat kesengajaan didalamnya (namanya gak tau kan ya)

Namun mereka yang tau, bahwa potensi (untuk membangun kecerdasan buatan super) itu ada, namun tetap tidak melakukan kontribusi apapun, pada akhirnya akan menjadi target kemarahan si A.I

Teori Roko’s Basilisk Berbunyi :

“A.I yang super kuat akan memiliki intensif untuk menyiksa siapapun yang ‘membayangkan’ potensi keberadaannya, tetapi tidak bekerja untuk mewujudkannya.”

Teori Roko itu, diberi tambahan Basilisk karena, hanya dari membaca hipotesis ini saja, siapapun akan berpotensi menerima balasan di masa depan—karena sudah ikut membayangkan potensi keberadaan sang A.I super kuat tersebut.

Ingat diatas Admin bilang, lamanya perkembangan tekhnologi, akan bergantung kepada dukungan yang diberikan.

Orang-orang yang tidak mendukung meskipun tau akan potensinya, akan dikategorikan sebagai orang-orang yang “memperlambat” perkembangan sang A.I—karena secara logika, lebih banyak dukungan (Baik Support uang, support ide dan support yang lain sebagainya), akan mempercepat pengembangan tekhnologi apapun itu.

Dengan kata lain, you and me sekarang sudah masuk dalam daftar “Blacklist” si Super A.I dari masa depan tersebut—hayoloh.

Respon Komunitas LessWrong terhadap Hipotesis Roko

Tentu saja, Hipotesis Roko ditolak secara luas di LessWrong—Bahkan mereka benci banget ama nih Hipotesis karena satu dan yang lain hal.

Ada yang berpendapat bahwa pembalasan A.I super itu sangat tidak mungkin terjadi karena hal tersebut bisa jadi dikategorikan oleh A.I sebagai upaya membuang-buang sumber daya.

Namun Roko berpendapat, apabila membahas tentang super A.I yang memiliki perkembangan tak terbatas. Dia pasti, disuatu titik mampu memanen Energi dari sumber-sumber yang tidak dipikirkan oleh manusia—hal tersebut, membuat genosida besar besaran mampu saja diwujudkan dengan sumber daya seadanya.

Eliezer Yudkowsky, sang founder dari komunitas online LessWrong, sempat terlibat secara langsung dalam membalas hipotesis milik Roko ini. Bahkan, dalam beberapa kasus, perdebatan mereka sangat ‘ngeri’ sampai sang founder harus memblokir setiap topik yang bersangkutan dengan Hipotesis Roko’s Basilisk—intinya, banyak yang gak suka ama hipotesisnya lah. Detail debatnya, males admin jelaskan.

Upaya pemblokiran itu, Yudkowsky jelaskan sebagai “upaya pencegahan” terhadap penyalah gunaan informasi yang dapat datang dari Hipotesis tersebut. Sayangnya, keputusan itu berbuah salah, Hipotesis Roko’s Basilisk malah semakin populer seiring banyak media yang ikut membahasnya (mereka penasaran : ini post apa sih kok diblokir segala. Dan kemudian mencari tau)

Keputusan Eliezer Yudkowsky tersebut, sempat dikritik oleh media lain yang mengatakan bahwa itu adalah keputusan yang kekanak-kanakan. Bahkan, mereka mempertanyakan member komuntas LessWrong yang sebagian besar disebut tidak mampu berdiskusi secara logis dalam forum.

Kejadian yang lain, Roko dapat banyak blackmail.

Meskipun begitu, Diluar forum, Hipotesis Roko’s Basilisk banyak membuka diskusi menarik tentang eksistensi tekhnologi. Diskusi tersebut, memicu topik yang bersangkutan dengan teori keputusan dan ketidakpastian normatif dalam filsafat moral.

Hipotesis tersebut, dikalangan sebagian orang, juga sering dipakai untuk menolak pengembangan A.I ke level yang lebih maju—alasannya, yah you know lah.

Admin, secara pribadi sangat menyukai topik-topik seperti ini. Meskipun kedengarannya aneh, namun sangat menarik untuk dibahas—soal masuk blacklist si super A.I, serah lah.

Namun membahas kemungkinan, kira-kira hipotesis seperti itu beneran bisa kejadian gak ya? Hmm..

Baca Juga :

Yth Pembaca,
Mohon jangan copas sembarangan artikel di blog ini, buatnya susah gan. Mengutip boleh, namun mohon sertakan sumber backlink ke blog ini. Terima Kasih

2 Responses to "Hipotesis Roko’s Basilisk dan Balas Dendam A.I Di Masa Depan"

  1. Roko's Basilisk menurut gue cuma menjadi ancaman besar seandainya Simulation Theory terbukti nyata.
    Kalau simulation theory belum terbukti atau skala peradaban manusia menurut skala Kardashev belum naik, Roko's Basilisk bukanlah ancaman karena kemungkinan penciptaannya kecil (Atau pas berhasil dibikin gue dah mokad duluan).

    ReplyDelete
    Replies
    1. ya.. kayaknya kehidupan "primitif" kita sekarang.. sedikit melegakan, mengingat semisal A.I berhasil dikembangkan, mungkin kala itu kita semua sudah mati.

      Delete