DOLAR
EURO
ALTIN
BIST
Adana Adıyaman Afyon Ağrı Aksaray Amasya Ankara Antalya Ardahan Artvin Aydın Balıkesir Bartın Batman Bayburt Bilecik Bingöl Bitlis Bolu Burdur Bursa Çanakkale Çankırı Çorum Denizli Diyarbakır Düzce Edirne Elazığ Erzincan Erzurum Eskişehir Gaziantep Giresun Gümüşhane Hakkari Hatay Iğdır Isparta İstanbul İzmir K.Maraş Karabük Karaman Kars Kastamonu Kayseri Kırıkkale Kırklareli Kırşehir Kilis Kocaeli Konya Kütahya Malatya Manisa Mardin Mersin Muğla Muş Nevşehir Niğde Ordu Osmaniye Rize Sakarya Samsun Siirt Sinop Sivas Şanlıurfa Şırnak Tekirdağ Tokat Trabzon Tunceli Uşak Van Yalova Yozgat Zonguldak
İstanbul 25°C
Az Bulutlu

Yapay zeka GPT-2, tiyatro oyunu yazdı

Yapay zeka GPT-2, tiyatro oyunu yazdı
13.03.2021
168
A+
A-
Açılımı Generative Pre-Training Transformer 2 olan GPT-2,  Elon Musk ve Sam Altman tarafından kurulan OpenAI şirketinin üzerinde çalıştığı bir yapay zeka teknolojisi. GPT-2’yi en basit anlatımla doğal dil işleme sinir ağı olarak tanımlamak mümkün. Bir dil öngörücü olan ürün, beslediğiniz içeriğin ardından neyin gelmesi gerektiğini tahmin ediyor ve komutlarınızı hayata geçiyor. GPT-2, 60 dakikalık bir tiyatro oyunu kaleme aldı. Bu dil tahmin modeli, şimdiye kadar sahte haberler, kısa hikayeler ve şiirler yazmak için de kullanılmıştı. Ancak onu geliştiren ekip, GPT-2’nin ilk defa bir tiyatro metni yazdığını söylüyor. GPT3 Söz konusu dil tahmin modeli, insan araştırmacıların önceden verdiği cümleleri tamamlayarak yeni metinler oluşturuyor. Bu projede araştırmacılar, yapay zekaya, “Merhaba, ben robotum ve sizi yazdığım oyuna davet etmek büyük bir zevk” cümlelerini girdi. Yapay zeka ise bu cümleyi tamamlayarak tiyatro metnini oluşturdu. Öte yandan sonuç, henüz kaliteli bir tiyatro metninden uzak. Çünkü yazılım, birkaç cümleden sonra metnin diğer bölümleriyle çelişen ifadeler yazmaya başlayabiliyor. Örneğin bu oyunu yazan yapay zeka, metnin ilerleyen kısımlarında ana karakterin insan değil de robot olduğunu unuttu. gpt Yapay zeka uzmanları, teknolojinin bir tiyatro oyunu gibi karmaşık bir metni baştan sona yazabilecek hale gelmesinin yaklaşık 15 yıl süreceğine inanıyor. İlk olarak GPT adıyla yayımlanan algoritmada 110 milyon ayarlanabilir parametre varken, bu sayı GPT 2’de 1,5 milyara çıkmıştı. GPT-3’te ise 175 milyar parametre var. Bu parametrelerin çokluğu yapay zekânın öğrenmesini kolaylaştırıyor. Bu yüzden algoritmanın son versiyonu GPT-3 için “bugüne kadar üretilmiş en tehlikeli algoritma” yorumları yapılıyor. GPT-3’ün DeepFake gibi platformlarda yalan haber üretme potansiyeli, yapay zekâ ürününe teknoloji dünyasında korkuyla yaklaşmak için bir sebep olarak gösteriliyor. Öte yandan GPT-3’ün tehlikeli olabileceğine dair diğer nedenler arasında ise hükümet süreçlerinin kötüye kullanımı ve sahte akademik makale yazabilecek olması gibi sebepler gösteriliyor.
ETİKETLER: ,
YORUMLAR

Henüz yorum yapılmamış. İlk yorumu yukarıdaki form aracılığıyla siz yapabilirsiniz.