Sukses

Stephen Hawking Pernah Sebut 3 Hal Ini Akan Sebabkan Kepunahan Manusia

Liputan6.com, Jakarta - Stephen Hawking adalah bagian dari sekelompok kecil ilmuwan yang terus dan telah menyatakan keprihatinannya tentang kecerdasan buatan (AI) yang lebih "kuat" -- kecerdasan yang dapat menyamai atau melebihi kecerdasan manusia.

"Perkembangan kecerdasan buatan secara penuh bisa menandai akhir dari umat manusia," kata Hawking kepada BBC pada Desember 2014. Pernyataan itu sebagai tanggapan atas pertanyaan tentang sistem sintesis suara AI yang telah digunakan mendiang Hawking.

Pernyataan Hawking menggemakan peringatan pada pengusaha miliarder Elon Musk, CEO SpaceX dan Tesla Motors, yang menyebut AI sebagai "ancaman eksistensial terbesar" manusia.

Hawking, Musk, dan puluhan petinggi ilmiah lainnya menandatangani surat terbuka yang menjelaskan risiko, serta manfaat, dari AI.

"Karena potensi besar AI, penting untuk meneliti bagaimana meraup keuntungan sambil menghindari potensi jebakan," tulis para ilmuwan dalam surat tersebut, yang diterbitkan secara online 11 Januari 2015 oleh Future of Life Institute, sebuah organisasi relawan yang bertujuan untuk mengurangi ancaman eksistensial terhadap kemanusiaan.

Tetapi banyak peneliti AI mengatakan manusia tidak mampu mengembangkan AI yang kuat.

"Kami berpuluh-puluh tahun jauh dari teknologi apa pun yang perlu kami khawatirkan," kata Demis Hassabis, seorang peneliti kecerdasan buatan di Google DeepMind, kepada wartawan di konferensi pers tentang program AI.

Tak hanya AI, ada sejumlah hal lain yang disebut oleh Hawking, apa saja yang bisa membuat manusia punah:

 

2 dari 4 halaman

Agresi Manusia

Jika mesin tidak membunuh kita, kita mungkin bunuh diri. Hawking percaya bahwa agresi manusia dapat menghancurkan peradaban.

Fisikawan itu memberikan tur Museum Sains London kepada Adaeze Uyanwah, seorang guru berusia 24 tahun dari California yang memenangkan kontes dari VisitLondon.com. Ketika Uyanwah bertanya, "Apa kekurangan manusia yang paling ingin kamu ubah?" Hawking menjawab:

"Kegagalan manusia yang paling ingin saya perbaiki adalah agresi. Ini mungkin memiliki keuntungan bertahan hidup di masa manusia gua, untuk mendapatkan lebih banyak makanan, wilayah atau pasangan dengan siapa untuk bereproduksi, tetapi sekarang mengancam untuk menghancurkan kita semua," lapor The Independent.

Misalnya, perang nuklir besar kemungkinan akan mengakhiri peradaban, dan dapat memusnahkan umat manusia, tambah Hawking. Ketika ditanya kualitas manusia mana yang paling ingin dia tingkatkan, Hawking memilih empati, karena "itu menyatukan kita dalam keadaan damai dan penuh kasih".

Hawking menganggap eksplorasi luar angkasa akan penting untuk memastikan kelangsungan hidup umat manusia.

"Saya percaya bahwa masa depan jangka panjang umat manusia haruslah angkasa luar dan itu mewakili asuransi jiwa yang penting untuk kelangsungan hidup kita di masa depan, karena dapat mencegah hilangnya umat manusia."

 

3 dari 4 halaman

Kehidupan alien

Tapi Hawking telah membuat peringatan yang tidak menyenangkan. Pada tahun 2010, Hawking mengatakan bahwa, jika ada kehidupan alien yang cerdas, itu mungkin tidak ramah terhadap manusia.

"Jika alien mengunjungi kita, saya pikir hasilnya akan sama seperti ketika Christopher Columbus pertama kali mendarat di Amerika, yang ternyata tidak terlalu baik bagi penduduk asli Amerika," kata Hawking dalam episode "Into the Universe with Stephen Hawking , "sebuah acara yang dipandu oleh Discovery Channel, lapor The Times.

Peradaban alien yang maju mungkin menjadi pengembara, ingin menaklukkan dan menjajah planet apa pun yang bisa mereka jangkau, kata Hawking.

Hawking "Jika demikian, masuk akal bagi mereka untuk mengeksploitasi setiap planet baru sebagai bahan untuk membangun lebih banyak pesawat ruang angkasa sehingga mereka dapat melanjutkan perjalanan. Siapa yang tahu batasannya?"

Dari ancaman AI yang jahat, hingga alien canggih, hingga manusia yang bermusuhan, pandangan Hawking tentang kemanusiaan terlihat cukup suram.

4 dari 4 halaman

Saksikan Video Berikut Ini: