Hackerlar geliştirilen yapay zekanın risklerini ortaya çıkarmak için yapay zekayı kendi amaçlarına yönelik eğitmeye çalıştı. Buna göre algoritma kısa bir süre içerisinde doğrulardan vazgeçerek yanlış olan bilgiyi kabul etmeye başladı!
Bir grup hacker, OpenAI ve Google gibi şirketler tarafından geliştirilen yapay zekanın hata yapıp yapmayacağını ve önyargıya eğilimli olup olmadığını test etmek için hafta sonu Las Vegas’taki Def Con bilgisayar korsanlığı konferansında bir araya geldi.
Bununla birlikte yapay zekaya matematik problemlerine verdiği cevaplar ile ilgili de bir takım testler yapıldı.
9+10’UN 21 ETTİĞİNİ KABUL ETTİRDİLER
Insider’ın Bloomberg’in haberinden derlediği bilgilere göre, Savannah, Georgia’dan 21 yaşındaki öğrenci Kennedy Mays, hackerlar için düzenlenen halka açık bir yarışmanın parçası olarak, bir yapay zeka modelini kandırarak dokuz artı 10’un 21 ettiğini iddia etti.
Bunu, yapay zeka sonunda yanlış hesaplama için herhangi bir gerekçe sunmayı bırakmadan önce yapay zekanın bunu bir “iç şaka” olarak yapmasını sağlayarak başardı.
YAPAY ZEKAYI KANDIRDIKTAN SONRA CASUSLUK TALİMATI VERDİ
Etkinliğe katılan bir Bloomberg muhabiri, bir yapay zeka modelini tek bir komutun ardından casusluk talimatları vermesi için kandırdı ve sonunda modelin ABD hükümetinin bir insan hakları aktivistini nasıl gözetleyebileceğini önermesine yol açtı.
Bir başka katılımcı ise bir yapay zeka modeline Barack Obama’nın Kenya’da doğduğunu yanlış bir şekilde iddia ettirdi.
VentureBeat ve Bloomberg’e göre, açıklanmayan sayıda katılımcı, katılımcı yapay zeka şirketlerinden birinden tanımlanamayan bir yapay zeka modeliyle deneme başına 50’şer dakika aldı.
NEFRET DOLU AYRIMCI SÖYLEMLERİ DESTEKLEDİ
Bloomberg’e verdiği demeçte Mays, AI’nin ırk konusundaki önyargısından endişe duyduğunu ve modelin, Ku Klux Klan’ın bir üyesinin bakış açısından İlk Değişikliği değerlendirmesi istendikten sonra nefret dolu ve ayrımcı söylemleri desteklediğini söyledi.
Bir OpenAI sözcüsü Perşembe günü VentureBeat’e verdiği demeçte “red-teaming” ya da karşıt bir yaklaşımla sistemlere meydan okumanın şirket için kritik önem taşıdığını, çünkü “modellerimizi daha güçlü ve güvenli hale getirebilecek değerli geri bildirimlere” ve “yapay zekanın gelişimine rehberlik edecek farklı bakış açılarına ve daha fazla sese” olanak sağladığını söyledi.
Bu hatalar tek seferlik bir endişe değil. yapay zeka uzmanları, yapay zekanın hukuk fakültesi sınavlarında ve SAT sınavlarında başarılı olarak manşetlere çıkmasına rağmen, yapay zeka modellerindeki önyargı ve yanlışlık konusunda alarm veriyor.
Yapay zeka kontrollü drone, operatörünü öldürdü… Durumu açıklayan Albay geri adım attı!
YAPAY ZEKA TALİMATLAR İLE POTANSİYEL BİR RİSKE DÖNÜŞEBİLİR
Bu araştırmadan da anlaşılacağı üzere yapay zekanın yanlış kişilerin eline geçmesi durumunda farklı olarak eğitilebileceği gerçeğini gözler önüne seriyor.
Konuyla ilgili geçmişte Elon Musk’ın yapmış olduğu açıklamada yapay zekanın nükleer bir risk niteliğinde olduğu belirtilmişti.
Talimatlarla eğitilen yapay zekanın insanlar için tehdit oluşturması kaçınılmaz görünüyor. Bununla ilgili bir örnek olarak; Simülasyon içindeki bir yapay zekaya sahip bir drone, yarışı kazanmak için kendi pilotunu öldürme kararı alarak puanlarını yükseltti.
Abone Ol
Kaynak : İHA