Resim kaynağı: Unbounded AI aracı tarafından oluşturulmuştur
Robotlardan Kim Korkar? Görünüşe göre birçok insan böyle. Şu anda, yapay zekanın yıkıcı tehlikeleri hakkında kamuya açıklama yapan veya açık mektuplar imzalayan önde gelen isimlerin sayısı şaşırtıcı.
Derin öğrenme öncüleri Geoffrey Hinton ve Yoshua Bengio'dan Sam Altman ve Demis Hassabis gibi en iyi yapay zeka şirketlerinin CEO'larına ve eski Estonya Başkanı Kersti Kaljulaid ile California Temsilcisi Ted Lieu'ya kadar yüzlerce bilim adamı, iş lideri ve politika yapıcı konuştu.
Tüm bu rakamların ve daha fazlasının imzasını taşıyan en sert iddia, San Francisco merkezli bir araştırma kuruluşu olan Yapay Zeka Güvenliği Merkezi (CAIS) tarafından iki hafta önce yayınlanan ve "yok olma riskini azaltmak" ifadesini kullanan 22 kelimelik bir bildiriydi. yapay zeka tarafından ortaya konan salgın hastalıklar ve nükleer savaş gibi diğer toplumsal ölçekli risklerle birlikte küresel bir öncelik olmalıdır."
Bu ifade kasıtlıdır. CAIS direktörü Dan Hendrycks, "Rorschach test tarzı bir ifade kullanacak olsaydık, 'varoluşsal risk' derdik çünkü bu, birçok farklı insan için pek çok şey ifade edebilir" dedi. ekonomiyi çökertmek değil. Hendrycks, "Birçoğumuz diğer çeşitli risklerden de endişe duysak da, bu yüzden 'yok olma riskinden' bahsediyoruz" dedi.
Daha önce orada bulunduk: AI kıyameti, AI aldatmacasıyla birlikte gelir. Ama bu sefer farklı hissettiriyor. Overton penceresi değişti. Bir zamanlar aşırı bir görüş olan bu görüş, artık ana akım, manşetlere ve dünya liderlerinin dikkatini çekiyor. Teknolojinin sosyal etkisini inceleyen bir kuruluş olan Data and Society'nin araştırma direktörü Jenna Burrell, "Yapay zeka ile ilgili endişe sesleri görmezden gelinemeyecek kadar yüksek" dedi.
Ne oldu? Yapay zeka gerçekten (daha) tehlikeli hale mi geliyor? Bu teknolojiyi en başta tanıtan insanlar neden şimdi alarm çalmaya başladı?
Kuşkusuz, bu görüşler alanda bölünmüştür. Geçen hafta, 2018 Turing Ödülü'nü Hinton ve Bengio ile paylaşan Meta'nın baş bilim adamı Yann LeCun, kıyamet günü teorisini "gülünç" olarak nitelendirmişti. Yapay zeka şirketi Cohere'in CEO'su Aidan Gomez, bunun "zamanımızı gülünç bir şekilde kullanmak" olduğunu söyledi.
Aynı şekilde diğerleri de alay etti. Signal başkanı Meredith Whittaker, "Yapay zekanın bu varoluşsal riskleri oluşturacağına dair şu anda 1950'den daha fazla kanıt yok" dedi. Whittaker, bir araştırma laboratuvarı olan Yapay Zeka Enstitüsü'nün kurucu ortağı ve eski yöneticisidir. Bu, yapay zekanın politika sonuçlarını inceler. "Hayalet hikayeleri bulaşıcıdır - korkmak gerçekten heyecan verici ve teşvik edicidir."
Burrell, "Bugün olan her şeyi geçmişe bakmanın bir yolu," dedi. "Gerçek veya ciddi bir zarar görmediğimizi gösteriyor."
Eski bir korku
Kaçak, kendi kendini geliştiren makinelerle ilgili endişeler Alan Turing'den beri var. Vernor Vinge ve Ray Kurzweil gibi fütüristler, yapay zekanın insan zekasını geride bıraktığı ve makineler tarafından ele geçirildiği varsayımsal bir tarih olan sözde "Tekillik" hakkında konuşarak bu fikirleri popüler hale getirdi.
Ancak bu endişenin temelinde kontrol sorunu yatıyor: Makineler daha akıllı hale gelirse (ya da ne zaman) insanlar hakimiyetlerini nasıl sürdürebilirler? Toronto Üniversitesi'nde bir AI filozofu olan (CAIS bildirisini de imzalayan) Karina Vold, "AI nasıl varoluşsal bir risk oluşturur?" Başlıklı 2017 tarihli bir makalede, bu endişenin arkasındaki temel argümanları ortaya koyuyor.
Argümanın üç temel önermesi vardır. İlk olarak, insanların diğer tüm zekaları geride bırakan süper zeki bir makine yaratması mümkündür. İkincisi, bizi geçebilecek süper zeki ajanların kontrolünü kaybetme riskimiz var. Üçüncüsü, süper zeki bir ajanın yapmasını istemediğimiz şeyleri yapma olasılığı vardır.
Bunların hepsini bir araya getirdiğimizde, bizi yok etmesi de dahil olmak üzere yapmasını istemediğimiz şeyleri yapacak bir makine yaratmak mümkün ve onu durduramayacağız.
Bu senaryo için farklı durumlar da vardır. Hinton, Mayıs ayında yapay zeka hakkındaki endişelerini dile getirdiğinde, kendilerine daha fazla güç sağlamak için şebekeyi yeniden yönlendiren robotlar örneğini verdi. Ancak süper zeka (veya AGI) gerekli değildir. Çok fazla alana sahip olduklarında aptal makineler de felaket olabilir. Birçok senaryo, kendi kendine hizmet eden botlar yerine pervasız veya kötü niyetli dağıtımları içerir.
Geçen hafta çevrimiçi olarak yayınlanan bir makalede, yapay zeka araştırmacıları Stuart Russell ve Berkeley, California Üniversitesi'nden Andrew Critch (CAIS bildirisini de imzalayanlar) varoluşsal riskin bir taksonomisini sunuyorlar. Bu riskler, milyonlara üniversiteyi bırakmalarını söyleyen viral tavsiye veren sohbet robotlarından, zararlı ekonomik çıkarlar peşinde koşan otonom endüstrilere ve yapay zeka destekli süper silahlar inşa eden ulus devletlere kadar uzanıyor.
Pek çok hayali durumda, teorik bir model insan tarafından verilen hedeflere ulaşır, ancak bu bizim için iyi olmayan bir şekilde. Eğitim verilerinde görülmeyen girdiler verildiğinde derin öğrenme modellerinin bazen nasıl beklenmedik şekillerde davrandığını inceleyen Hendrycks için, bir yapay zeka sistemi her şeye kadir değil yıkıcı olduğu için felaket olabilir. "Ona bir hedef verirseniz ve egzotik bir çözüm bulursa, bizi garip bir yolculuğa çıkarır" dedi.
Bu olası geleceklerle ilgili sorun, onları bilim kurgu gibi gösteren bir dizi "eğer"e güvenmeleridir. Vold'un kendisi de bunu kabul etti. "[Varoluşsal riskleri] oluşturan veya tetikleyen olaylar benzeri görülmemiş olduğundan, böyle bir tehdit oluşturduklarına dair argümanların doğası gereği teorik olması gerekir" diye yazdı. "Nadir olmaları, bu tür olayların nasıl ve ne zaman gerçekleştiğine dair herhangi bir spekülasyonu öznel kılar ve ampirik olarak doğrulanamaz."
Öyleyse neden bu fikirlere her zamankinden daha fazla insan inanıyor? Google'da bir yapay zeka araştırmacısı olan François Chollet, "Farklı insanlar farklı nedenlerle risk hakkında konuşur ve bunu farklı şekilde kastedebilirler" diyor. Ancak bu karşı konulamaz bir anlatı: "Varoluşsal risk her zaman iyi bir hikaye olmuştur."
Whittaker, "Göz ardı edilemeyecek mitolojik, neredeyse dini bir unsur var" dedi. "Tarif edilen şeyin hiçbir kanıta dayanmadığı göz önüne alındığında, bilimsel bir söylemden çok bir inanca, dini bir tutkuya daha yakın olduğunu kabul etmemiz gerektiğini düşünüyorum."
Kıyamet Bulaşı
Derin öğrenme araştırmacıları ilk kez bir dizi başarı elde etmeye başladığında -- Hinton ve meslektaşlarının 2012 ImageNet yarışmasında rekor kıran görüntü tanıma puanını ve 2015'te DeepMind'in bir insan şampiyona karşı ilk AlphaGo zaferini düşünün. kıyamet günü de. Hawking ve kozmolog Martin Rees gibi önde gelen bilim adamlarının yanı sıra Elon Musk gibi yüksek profilli teknoloji liderleri varoluşsal riskler konusunda alarm verdi. Ancak bu karakterler yapay zeka uzmanı değil.
Sekiz yıl önce San Jose'de sahnede duran derin öğrenmenin öncüsü ve ardından Baidu'da baş bilim insanı olan Andrew Ng bu fikre gülüp geçti.
Andrew Ng, 2015 Nvidia GPU Teknoloji Konferansı'nda izleyicilere "Uzak bir gelecekte katil bir robot yarışı olabilir" dedi. "Fakat bugün yapay zekanın kötülüğe dönüşmesini engellemeye, Mars'taki aşırı nüfus artışı konusunda endişelendiğim kadar kararlı değilim." (Ng'nin sözleri o sırada teknoloji haber sitesi The Register tarafından rapor edilmişti.)
2011'de Google'ın yapay zeka laboratuvarını kuran ve şu anda Landing AI'ın CEO'su olan Andrew Ng, o zamandan beri röportajlarında bu cümleyi tekrarlıyor. Ama şimdi daha az iyimser. "Açık fikirliyim ve daha fazlasını öğrenmek için birkaç kişiyle konuşuyorum" dedi. "Hızlı gelişmeler, bilim insanlarının riski yeniden düşünmelerine neden oluyor."
Pek çok kişi gibi Ng de üretken yapay zekanın hızlı gelişimi ve kötüye kullanım potansiyeli hakkındaki endişelerini dile getirdi. Geçen ay, Pentagon'daki bir patlamanın yapay zeka tarafından oluşturulmuş geniş çapta dolaşan bir görüntüsünün insanları ürküttüğünü ve borsayı aşağı çektiğini kaydetti.
Ng, "Maalesef yapay zeka o kadar güçlü ki büyük sorunlara da yol açacak gibi görünüyor" dedi. Ancak katil robotlardan bahsetmedi: "Şu anda, yapay zekanın nasıl bizim neslimizin tükenmesine yol açabileceğini görmekte hala zorlanıyorum".
Öncekinden farklı olan, yapay zekanın neler yapabileceğine dair yaygın farkındalıktır. ChatGPT, teknolojiyi geçen yılın sonlarında halka açtı. Chollet, "AI aniden ana akımda sıcak bir konu haline geldi" dedi. "İnsanlar yapay zekayı ciddiye alıyorlar çünkü kapasitedeki ani sıçramaları daha fazla sıçramanın habercisi olarak görüyorlar."
Ek olarak, bir chatbot ile konuşma deneyimi rahatsız edici olabilir. Konuşma, genellikle insanların diğer insanlarla yaptığı bir şey olarak anlaşılan bir şeydir. Whittaker, "Yapay zekanın bir insan veya duyarlı bir muhatap gibi olması fikrine bir meşruiyet duygusu katıyor. Bence bu, insanları, yapay zeka insan iletişimini simüle edebiliyorsa XYZ de yapabileceğine inandırıyor."
"Bu yüzden, hayatta kalma riski hakkında konuşmanın bir şekilde uygun olduğunu hissetmeye başlıyorum - kanıt olmadan çıkarımlar yapmak" dedi.
İleriye dönük
Öfkelenmek için nedenlerimiz var. Düzenleyiciler teknoloji endüstrisini yakalamaya çalışırken, ne tür faaliyetlerin kısıtlanması veya kısıtlanmaması gerektiğine dair sorular ortaya çıkıyor. Kısa vadeli zararlardan (ayrımcı işe alma veya yanlış bilgilendirme gibi) ziyade uzun vadeli riskleri vurgulamak, düzenleyicileri yeniden varsayımsal gelecekteki sorunlara odaklar.
Burrell, "Gerçek düzenleyici kısıtlamaların tehdidinin bir duruşu yönlendirdiğinden şüpheleniyorum. Varoluşsal risk hakkında konuşmak, iş fırsatlarını yok etmeden düzenleyicilerin endişelerini doğrulayabilir. İnsanlığa ihanet eden süper zeki yapay zeka Kulağa korkutucu geliyor ama aynı zamanda açıkça henüz olmamış bir şey."
Varoluşsal riskle ilgili endişeleri abartmak, iş için başka açılardan da iyidir. Chollet, en iyi yapay zeka şirketlerinin AGI'nin geldiğini düşünmemize ihtiyaç duyduğuna ve onu inşa edenlerin kendileri olduğuna dikkat çekiyor. "İnsanların üzerinde çalıştığınız şeyin güçlü olduğunu düşünmelerini istiyorsanız, onları bundan korkutmak iyi bir fikirdir" dedi.
Whittaker da benzer bir görüşe sahip. "Kendinizi insanlardan daha güçlü olabilecek bir varlığın yaratıcısı olarak göstermek önemli bir şey," dedi.
Sadece pazarlama veya yutturmaca ise bunların hiçbiri önemli değil. Ancak neyin risk olup olmadığına karar vermenin sonuçları vardır. Sınırlı bütçelerin ve dikkat sürelerinin olduğu bir dünyada, nükleer savaştan daha az aşırı olan yaralanmalar, bir öncelik olduklarını düşünmediğimiz için göz ardı edilebilir.
AI Now Enstitüsü genel müdürü Sarah Myers West, "Bu, özellikle politika müdahalesi için dar bir çerçeve olarak emniyet ve güvenliğe artan odaklanma göz önüne alındığında önemli bir sorudur" dedi.
Başbakan Rishi Sunak, Mayıs ayında Sam Altman ve Demis Hassabis de dahil olmak üzere AI şirketlerinin başkanlarıyla bir araya geldiğinde, Birleşik Krallık hükümeti şu açıklamayı yaptı: "Başbakan ve CEO'lar, teknolojinin dezenformasyon ve devlet güvenliğinden, varoluşsal bir tehdit".
Altman, önceki hafta ABD Senatosuna en büyük endişesinin yapay zeka endüstrisinin dünyaya önemli zararlar vermesi olduğunu söylemişti. Altman'ın ifadesi, bu benzeri görülmemiş zararı ele almak için yeni bir teşkilat türü çağrılarını ateşledi.
Overton penceresinin değişmesiyle hasar verildi mi? Whittaker, "Uzak gelecekten bahsediyorsak, efsanevi riskten bahsediyorsak, o zaman sorunu tamamen bir fantezi dünyasında var olan bir sorun olarak yeniden çerçevelendiriyoruz ve çözüm bir fantezi dünyasında var olabilir." dedi.
Ancak Whittaker, AI etrafındaki politika tartışmalarının son korkulardan daha uzun yıllardır devam ettiğini de belirtti. "Ben kaçınılmazlığa inanmıyorum," dedi. "Abartmacanın karşılandığını göreceğiz. Bu yutturmaca kaybolacak."
View Original
The content is for reference only, not a solicitation or offer. No investment, tax, or legal advice provided. See Disclaimer for more risks disclosure.
MIT Teknoloji İncelemesi: Varoluşsal Risk Nasıl Yapay Zekadaki En Büyük Meme Oldu?
Senaryo: Will Douglas Heaven
Kaynak: MIT Teknoloji İncelemesi
Robotlardan Kim Korkar? Görünüşe göre birçok insan böyle. Şu anda, yapay zekanın yıkıcı tehlikeleri hakkında kamuya açıklama yapan veya açık mektuplar imzalayan önde gelen isimlerin sayısı şaşırtıcı.
Derin öğrenme öncüleri Geoffrey Hinton ve Yoshua Bengio'dan Sam Altman ve Demis Hassabis gibi en iyi yapay zeka şirketlerinin CEO'larına ve eski Estonya Başkanı Kersti Kaljulaid ile California Temsilcisi Ted Lieu'ya kadar yüzlerce bilim adamı, iş lideri ve politika yapıcı konuştu.
Tüm bu rakamların ve daha fazlasının imzasını taşıyan en sert iddia, San Francisco merkezli bir araştırma kuruluşu olan Yapay Zeka Güvenliği Merkezi (CAIS) tarafından iki hafta önce yayınlanan ve "yok olma riskini azaltmak" ifadesini kullanan 22 kelimelik bir bildiriydi. yapay zeka tarafından ortaya konan salgın hastalıklar ve nükleer savaş gibi diğer toplumsal ölçekli risklerle birlikte küresel bir öncelik olmalıdır."
Bu ifade kasıtlıdır. CAIS direktörü Dan Hendrycks, "Rorschach test tarzı bir ifade kullanacak olsaydık, 'varoluşsal risk' derdik çünkü bu, birçok farklı insan için pek çok şey ifade edebilir" dedi. ekonomiyi çökertmek değil. Hendrycks, "Birçoğumuz diğer çeşitli risklerden de endişe duysak da, bu yüzden 'yok olma riskinden' bahsediyoruz" dedi.
Daha önce orada bulunduk: AI kıyameti, AI aldatmacasıyla birlikte gelir. Ama bu sefer farklı hissettiriyor. Overton penceresi değişti. Bir zamanlar aşırı bir görüş olan bu görüş, artık ana akım, manşetlere ve dünya liderlerinin dikkatini çekiyor. Teknolojinin sosyal etkisini inceleyen bir kuruluş olan Data and Society'nin araştırma direktörü Jenna Burrell, "Yapay zeka ile ilgili endişe sesleri görmezden gelinemeyecek kadar yüksek" dedi.
Ne oldu? Yapay zeka gerçekten (daha) tehlikeli hale mi geliyor? Bu teknolojiyi en başta tanıtan insanlar neden şimdi alarm çalmaya başladı?
Kuşkusuz, bu görüşler alanda bölünmüştür. Geçen hafta, 2018 Turing Ödülü'nü Hinton ve Bengio ile paylaşan Meta'nın baş bilim adamı Yann LeCun, kıyamet günü teorisini "gülünç" olarak nitelendirmişti. Yapay zeka şirketi Cohere'in CEO'su Aidan Gomez, bunun "zamanımızı gülünç bir şekilde kullanmak" olduğunu söyledi.
Aynı şekilde diğerleri de alay etti. Signal başkanı Meredith Whittaker, "Yapay zekanın bu varoluşsal riskleri oluşturacağına dair şu anda 1950'den daha fazla kanıt yok" dedi. Whittaker, bir araştırma laboratuvarı olan Yapay Zeka Enstitüsü'nün kurucu ortağı ve eski yöneticisidir. Bu, yapay zekanın politika sonuçlarını inceler. "Hayalet hikayeleri bulaşıcıdır - korkmak gerçekten heyecan verici ve teşvik edicidir."
Burrell, "Bugün olan her şeyi geçmişe bakmanın bir yolu," dedi. "Gerçek veya ciddi bir zarar görmediğimizi gösteriyor."
Eski bir korku
Kaçak, kendi kendini geliştiren makinelerle ilgili endişeler Alan Turing'den beri var. Vernor Vinge ve Ray Kurzweil gibi fütüristler, yapay zekanın insan zekasını geride bıraktığı ve makineler tarafından ele geçirildiği varsayımsal bir tarih olan sözde "Tekillik" hakkında konuşarak bu fikirleri popüler hale getirdi.
Ancak bu endişenin temelinde kontrol sorunu yatıyor: Makineler daha akıllı hale gelirse (ya da ne zaman) insanlar hakimiyetlerini nasıl sürdürebilirler? Toronto Üniversitesi'nde bir AI filozofu olan (CAIS bildirisini de imzalayan) Karina Vold, "AI nasıl varoluşsal bir risk oluşturur?" Başlıklı 2017 tarihli bir makalede, bu endişenin arkasındaki temel argümanları ortaya koyuyor.
Argümanın üç temel önermesi vardır. İlk olarak, insanların diğer tüm zekaları geride bırakan süper zeki bir makine yaratması mümkündür. İkincisi, bizi geçebilecek süper zeki ajanların kontrolünü kaybetme riskimiz var. Üçüncüsü, süper zeki bir ajanın yapmasını istemediğimiz şeyleri yapma olasılığı vardır.
Bunların hepsini bir araya getirdiğimizde, bizi yok etmesi de dahil olmak üzere yapmasını istemediğimiz şeyleri yapacak bir makine yaratmak mümkün ve onu durduramayacağız.
Bu senaryo için farklı durumlar da vardır. Hinton, Mayıs ayında yapay zeka hakkındaki endişelerini dile getirdiğinde, kendilerine daha fazla güç sağlamak için şebekeyi yeniden yönlendiren robotlar örneğini verdi. Ancak süper zeka (veya AGI) gerekli değildir. Çok fazla alana sahip olduklarında aptal makineler de felaket olabilir. Birçok senaryo, kendi kendine hizmet eden botlar yerine pervasız veya kötü niyetli dağıtımları içerir.
Geçen hafta çevrimiçi olarak yayınlanan bir makalede, yapay zeka araştırmacıları Stuart Russell ve Berkeley, California Üniversitesi'nden Andrew Critch (CAIS bildirisini de imzalayanlar) varoluşsal riskin bir taksonomisini sunuyorlar. Bu riskler, milyonlara üniversiteyi bırakmalarını söyleyen viral tavsiye veren sohbet robotlarından, zararlı ekonomik çıkarlar peşinde koşan otonom endüstrilere ve yapay zeka destekli süper silahlar inşa eden ulus devletlere kadar uzanıyor.
Pek çok hayali durumda, teorik bir model insan tarafından verilen hedeflere ulaşır, ancak bu bizim için iyi olmayan bir şekilde. Eğitim verilerinde görülmeyen girdiler verildiğinde derin öğrenme modellerinin bazen nasıl beklenmedik şekillerde davrandığını inceleyen Hendrycks için, bir yapay zeka sistemi her şeye kadir değil yıkıcı olduğu için felaket olabilir. "Ona bir hedef verirseniz ve egzotik bir çözüm bulursa, bizi garip bir yolculuğa çıkarır" dedi.
Bu olası geleceklerle ilgili sorun, onları bilim kurgu gibi gösteren bir dizi "eğer"e güvenmeleridir. Vold'un kendisi de bunu kabul etti. "[Varoluşsal riskleri] oluşturan veya tetikleyen olaylar benzeri görülmemiş olduğundan, böyle bir tehdit oluşturduklarına dair argümanların doğası gereği teorik olması gerekir" diye yazdı. "Nadir olmaları, bu tür olayların nasıl ve ne zaman gerçekleştiğine dair herhangi bir spekülasyonu öznel kılar ve ampirik olarak doğrulanamaz."
Öyleyse neden bu fikirlere her zamankinden daha fazla insan inanıyor? Google'da bir yapay zeka araştırmacısı olan François Chollet, "Farklı insanlar farklı nedenlerle risk hakkında konuşur ve bunu farklı şekilde kastedebilirler" diyor. Ancak bu karşı konulamaz bir anlatı: "Varoluşsal risk her zaman iyi bir hikaye olmuştur."
Whittaker, "Göz ardı edilemeyecek mitolojik, neredeyse dini bir unsur var" dedi. "Tarif edilen şeyin hiçbir kanıta dayanmadığı göz önüne alındığında, bilimsel bir söylemden çok bir inanca, dini bir tutkuya daha yakın olduğunu kabul etmemiz gerektiğini düşünüyorum."
Kıyamet Bulaşı
Derin öğrenme araştırmacıları ilk kez bir dizi başarı elde etmeye başladığında -- Hinton ve meslektaşlarının 2012 ImageNet yarışmasında rekor kıran görüntü tanıma puanını ve 2015'te DeepMind'in bir insan şampiyona karşı ilk AlphaGo zaferini düşünün. kıyamet günü de. Hawking ve kozmolog Martin Rees gibi önde gelen bilim adamlarının yanı sıra Elon Musk gibi yüksek profilli teknoloji liderleri varoluşsal riskler konusunda alarm verdi. Ancak bu karakterler yapay zeka uzmanı değil.
Sekiz yıl önce San Jose'de sahnede duran derin öğrenmenin öncüsü ve ardından Baidu'da baş bilim insanı olan Andrew Ng bu fikre gülüp geçti.
Andrew Ng, 2015 Nvidia GPU Teknoloji Konferansı'nda izleyicilere "Uzak bir gelecekte katil bir robot yarışı olabilir" dedi. "Fakat bugün yapay zekanın kötülüğe dönüşmesini engellemeye, Mars'taki aşırı nüfus artışı konusunda endişelendiğim kadar kararlı değilim." (Ng'nin sözleri o sırada teknoloji haber sitesi The Register tarafından rapor edilmişti.)
2011'de Google'ın yapay zeka laboratuvarını kuran ve şu anda Landing AI'ın CEO'su olan Andrew Ng, o zamandan beri röportajlarında bu cümleyi tekrarlıyor. Ama şimdi daha az iyimser. "Açık fikirliyim ve daha fazlasını öğrenmek için birkaç kişiyle konuşuyorum" dedi. "Hızlı gelişmeler, bilim insanlarının riski yeniden düşünmelerine neden oluyor."
Pek çok kişi gibi Ng de üretken yapay zekanın hızlı gelişimi ve kötüye kullanım potansiyeli hakkındaki endişelerini dile getirdi. Geçen ay, Pentagon'daki bir patlamanın yapay zeka tarafından oluşturulmuş geniş çapta dolaşan bir görüntüsünün insanları ürküttüğünü ve borsayı aşağı çektiğini kaydetti.
Ng, "Maalesef yapay zeka o kadar güçlü ki büyük sorunlara da yol açacak gibi görünüyor" dedi. Ancak katil robotlardan bahsetmedi: "Şu anda, yapay zekanın nasıl bizim neslimizin tükenmesine yol açabileceğini görmekte hala zorlanıyorum".
Öncekinden farklı olan, yapay zekanın neler yapabileceğine dair yaygın farkındalıktır. ChatGPT, teknolojiyi geçen yılın sonlarında halka açtı. Chollet, "AI aniden ana akımda sıcak bir konu haline geldi" dedi. "İnsanlar yapay zekayı ciddiye alıyorlar çünkü kapasitedeki ani sıçramaları daha fazla sıçramanın habercisi olarak görüyorlar."
Ek olarak, bir chatbot ile konuşma deneyimi rahatsız edici olabilir. Konuşma, genellikle insanların diğer insanlarla yaptığı bir şey olarak anlaşılan bir şeydir. Whittaker, "Yapay zekanın bir insan veya duyarlı bir muhatap gibi olması fikrine bir meşruiyet duygusu katıyor. Bence bu, insanları, yapay zeka insan iletişimini simüle edebiliyorsa XYZ de yapabileceğine inandırıyor."
"Bu yüzden, hayatta kalma riski hakkında konuşmanın bir şekilde uygun olduğunu hissetmeye başlıyorum - kanıt olmadan çıkarımlar yapmak" dedi.
İleriye dönük
Öfkelenmek için nedenlerimiz var. Düzenleyiciler teknoloji endüstrisini yakalamaya çalışırken, ne tür faaliyetlerin kısıtlanması veya kısıtlanmaması gerektiğine dair sorular ortaya çıkıyor. Kısa vadeli zararlardan (ayrımcı işe alma veya yanlış bilgilendirme gibi) ziyade uzun vadeli riskleri vurgulamak, düzenleyicileri yeniden varsayımsal gelecekteki sorunlara odaklar.
Burrell, "Gerçek düzenleyici kısıtlamaların tehdidinin bir duruşu yönlendirdiğinden şüpheleniyorum. Varoluşsal risk hakkında konuşmak, iş fırsatlarını yok etmeden düzenleyicilerin endişelerini doğrulayabilir. İnsanlığa ihanet eden süper zeki yapay zeka Kulağa korkutucu geliyor ama aynı zamanda açıkça henüz olmamış bir şey."
Varoluşsal riskle ilgili endişeleri abartmak, iş için başka açılardan da iyidir. Chollet, en iyi yapay zeka şirketlerinin AGI'nin geldiğini düşünmemize ihtiyaç duyduğuna ve onu inşa edenlerin kendileri olduğuna dikkat çekiyor. "İnsanların üzerinde çalıştığınız şeyin güçlü olduğunu düşünmelerini istiyorsanız, onları bundan korkutmak iyi bir fikirdir" dedi.
Whittaker da benzer bir görüşe sahip. "Kendinizi insanlardan daha güçlü olabilecek bir varlığın yaratıcısı olarak göstermek önemli bir şey," dedi.
Sadece pazarlama veya yutturmaca ise bunların hiçbiri önemli değil. Ancak neyin risk olup olmadığına karar vermenin sonuçları vardır. Sınırlı bütçelerin ve dikkat sürelerinin olduğu bir dünyada, nükleer savaştan daha az aşırı olan yaralanmalar, bir öncelik olduklarını düşünmediğimiz için göz ardı edilebilir.
AI Now Enstitüsü genel müdürü Sarah Myers West, "Bu, özellikle politika müdahalesi için dar bir çerçeve olarak emniyet ve güvenliğe artan odaklanma göz önüne alındığında önemli bir sorudur" dedi.
Başbakan Rishi Sunak, Mayıs ayında Sam Altman ve Demis Hassabis de dahil olmak üzere AI şirketlerinin başkanlarıyla bir araya geldiğinde, Birleşik Krallık hükümeti şu açıklamayı yaptı: "Başbakan ve CEO'lar, teknolojinin dezenformasyon ve devlet güvenliğinden, varoluşsal bir tehdit".
Altman, önceki hafta ABD Senatosuna en büyük endişesinin yapay zeka endüstrisinin dünyaya önemli zararlar vermesi olduğunu söylemişti. Altman'ın ifadesi, bu benzeri görülmemiş zararı ele almak için yeni bir teşkilat türü çağrılarını ateşledi.
Overton penceresinin değişmesiyle hasar verildi mi? Whittaker, "Uzak gelecekten bahsediyorsak, efsanevi riskten bahsediyorsak, o zaman sorunu tamamen bir fantezi dünyasında var olan bir sorun olarak yeniden çerçevelendiriyoruz ve çözüm bir fantezi dünyasında var olabilir." dedi.
Ancak Whittaker, AI etrafındaki politika tartışmalarının son korkulardan daha uzun yıllardır devam ettiğini de belirtti. "Ben kaçınılmazlığa inanmıyorum," dedi. "Abartmacanın karşılandığını göreceğiz. Bu yutturmaca kaybolacak."