Yapay Zekâ Dil Çeşitliliğimizi de Görüyor mu?

Makineler üzerinden yapay bir dil tasarlayabilirsiniz, ama kadim bir kültürün içine doğmuş ve orada serpilmiş olan bir dilin zenginliğinin yaygınlaşması ve algoritmaların kapitalist ve tahakkümcü kodlamalarının ötesine geçmesi, makine-insan işbirliğinin en hoş ve demokratik örneklerinden biri olarak insanlık tarihine yazılacaktır.

chat gpt

“Dilimin sınırları, dünyamın sınırlarıdır.” 

Ludwig Wittgenstein

 

Son dönemin popüler tartışmalarının başında “yapay zekâ” geliyor. Bir zamanlar Apple’ın Siri’si, Amazon’un Alexa’sı veya Google’ın Translate’i karşısında yaşadığımız şaşkınlık, yerini ChatGPT üzerinden yazılan akademik metinlerin içeriğine bırakıyor. ChatGPT’de yazılan makaleleri yüzde 99 oranında doğruluk payıyla tespit edebilen araçlar üzerinde çalışılıyor. 

 

Üniversite kampüslerinden kahvehane muhabbetlerine dek geniş bir yelpazede kâh yerden yere vurulan kâh göklere çıkarılan yapay zekâya dair muhtelif sorular var. 

 

Yapay zekâ kontrolden çıkar mı? Yapay zekâ da bizi görüyor mu? Hayatımızı denetimsiz şekilde istila eder mi? Robotlarla işbirliği yapıp dünyayı ele geçirir mi? Sanal suçlarda kullanılır mı? Kontrolsüz bırakılan yapay zekâ, zaten bolca yaşanan mezenformasyona yenilerini de ekler ve işin çığırından çıkmasına yol açar mı? 

 

İnsanlığın gelişimi, gündelik işlerin kolaylaşması, insan-makine işbirliğinin farklı bir boyuta ulaşması açısından yapay zekâ alanında kısa süre içerisinde atılan adımlar oldukça etkileyici ve heyecan verici. Büyük düşünür ve şair Oruç Aruoba, “Yola çıkan kişi nereye ulaşabileceğini, ancak yürüyüp, yolu aşıp, vararak bilebilir. Yol, yürünmeden bilinmez” der. Şu anda oldukça hassas bir yol üzerinde yürüyor insanlık. Nereye ulaşacağını da yürüdükçe görüyor. 

 

Makinelerin insanlığın gelişimini kolaylaştırdığı muhakkak. Ama, bir yandan da insanın makineden üstün olduğu analitik zekâ, yaratıcılık, eleştirel bakış gibi “beşerî becerileri”ni köreltmesi ve bunları makinelerin eline teslim etmesi durumunda bizi ciddi tehlikeler de bekliyor olabilir. 

 

Uluslararası Yönetişim İhtiyacı 

 

Geçtiğimiz aylarda “Yapay Zekânın Manevi Babaları” olarak bilinen ve gelişiminde önemli katkılar sağlayan bilgisayar bilimci Dr. Geoffrey Hinton (ki kendisi Nobel ödülü sahibi) ve istifa edene kadar Google’ın başkan yardımcılarından ve baş mühendislerinden olan Prof. Yoshua Bengio da bir dizi uyarıda bulunmuş; yapay zekânın gelişimini dizginlemek için uluslararası düzenlemelerin şart olduğunu söylemişti. 

 

Hatta birçok uzman, bu alandaki uluslararası yönetişimi sağlaması için Yapay Zekâ Uluslararası Ajansı kurulmasını da öneriyor.

 

Mayıs ayında Google, yapay zekâ destekli yeni bir aracı kamuoyuna tanıttı: Help Me Write. Henüz beta formunda olsa da bu aracın amacı, kullanıcının basit talimatlarından yola çıkarak otomatik olarak e-posta yazmak ve mektuplar hazırlamak. 

 

Metinlerin yapay zekâ yardımıyla daha hızlı yazılması, bir süredir üzerinde çalışılan bir proje. Bunun giderek daha geniş piyasalara entegre edilmesi, daha büyük ölçekte belgelerin yazılmasında fayda sağlaması da hedefleniyor. ChatGPT üzerinden şiir yazılması, üniversite final sınavlarının hazırlanması gibi tartışmalı “yan ürünler” son dönemde gündemde yerini zaten koruyor. Kısa süre içerisinde yapay zekâ araçlarının bireysel tercihleri de öğrenip daha “kişiselleştirilmiş” şekilde yazılar hazırlaması da an meselesi. 

 

Toplumsal Eşitleyicilik 

 

Ortada ciddi bir iş potansiyeli olduğunu kimse inkâr etmiyor. Ama bir yandan da işin “toplumsal” ve “duygusal” yönleri de es geçilmemeli. Bu, kimilerine göre iş dünyasında verimliliği artırmak ve e-posta yazmakla harcanan vakitten tasarruf etmek için bulunmaz nimet. Aynı zamanda herhangi bir engelden dolayı veya eğitim farkı sebebiyle meslektaşları kadar kusursuz e-posta yazamayan çalışanlar açısından da “toplumsal eşitleyicilik” işlevi görüyor. Yani sadece e-posta yazma tembelliği ile ilişkilendirmemek gerekiyor. 

 

Elbette e-postalarda hatalı dil kullanımını, örseleyici kelimeler seçimini engellemek için kişinin mutlaka son kertede analitik bir bakış açısıyla nihai ürünü incelemesi de şart. Zira dil modellerindeki herhangi bir hatadan, söz konusu yapay zekâyı üretenlerin yasal olarak sorumlu tutulup tutulmayacağı henüz net değil. 

 

Ayrıca ChatGPT’nin kelimelerin anlamını bilmediği, bir dizi tanım içerisinden tanımlamalar oluşturduğu ve kendisine sorulan sorunun bağlamına en uygun yanıtla bunları bağdaştırdığını da biliyoruz. 

 

Yani ChatGPT, kendisine yöneltilen sorularda kelimelerin anlamını rehber olarak almıyor; sadece belirli algoritmalar, kelimelerin sık kullanımı, dilsel modellemeler, başat yazı biçimleri üzerinden bağlamla soruyu örtüştürüyor. Ama bu sırada daha az kullanılan yazım ve dil modellerini saf dışı bırakıyor. 

 

Oysa, 20’nci yüzyılın en önemli filozoflarından olan Ludwig Wittgenstein’a kulak verirsek, “Çoğu durumda, bir kelimenin anlamı, onun dildeki kullanımıdır”. Bu cümle, bence kendisinin Felsefi Soruşturmalar adlı eserinin en çarpıcı cümlesidir. Yani, yapay zekâ açısından da gerçek zekâ açısından da ne söylediğiniz değil, onu hangi bağlamda, ne şekilde söylediğinizdir aslolan. 

 

Bir yazım biçimi veya dilin “başat” hale gelmesinin ardında tesadüfler zinciri olmadığı, bir sosyal grubun bir başka sosyal grup üzerinde güç ve egemenlik göstermek için kendi dil ve yazım biçimini anaakımlaştırdığı da hepimizin malumu. 

 

Standart İngilizce Kullanımı 

 

Tek bir İngilizce değil, birçok İngilizce olması, ancak akademide ve profesyonel iletişimde Standart Amerikan İngilizcesi (SAE) kullanılması, farklı gramer ve kelime dağarcığı kullanan Siyahlara karşı da bir damgalama konusu olabiliyor. Dil, birçok açıdan, bir grubun yaşadığı ülkeye sadakatinin gizliden gizliye “değerlendirildiği” bir kurumsal ve retorik kimliğe bürünebiliyor. 

 

Benzer şekilde Yeni Zelanda’da Kraliyet İngilizcesi’nin tarihsel olarak Maori kültürü karşısında başat olmak için anaakımlaştırılması da aynı çerçeveden okunabilir. 

 

ChatGPT, Siyah İngilizce ve Maorice de dahil olmak üzere çok fazla içeriği okuyup analiz edip içerik üretebiliyor; ancak varsayılan ayarlarında bazı yazı dilleri daha tipik, daha yaygın, daha genel ve daha normal olarak yer alıyor. Yani öğrenme modelleri ve algoritmalardan kaynaklı bir “yanlılık” söz konusu. Böylelikle, Beyaz ve standart İngilizce konuşanların başvurduğu anaakım dil ve yazım dışındaki diğer diller ve yazım biçimleri “marjinalleştirilmiş” oluyor. 

 

Konunun “dikkat” boyutu da mühim. Bu sene başında ABD’de Vanderbilt Üniversitesi, Michigan Devlet Üniversitesi’nde gerçekleşen silahlı saldırıya dair bir başsağlığı mesajını yapay zekâ ile yazmış, ancak metnin en sonunda “Yapay Zekâ ile yazılmıştır” (written by AI) ibaresini silmeyi unuttuğu için büyük tepki toplamıştı. 

 

Ama işin ilginç bir boyutu daha var: Peki ya yok olmakta olan diller ve lehçeler, bu şekilde ölümcül bir darbe yerse? Zaten Word sayfalarında otomatik düzeltilere takılan bazı dilsel özgünlükler bu kez yapay zekâ yoluyla tamamen ele geçirilirse? Zira yapay zekâ araçları ile yazım kolaylıkları yaygınlaştıkça, kullanıcılar giderek formel ve yaygın dillere odaklanacaklar ve onlar dışında kalan tüm diller pratikliğini ve işlevini yitirecek. 

 

Diller Yok Oluyor 

 

BM verilerine göre dünyada her iki haftada bir dilin yok olduğu, 7.000’in üzerinde dilin konuşulduğu dünya üzerinde, konuşulan dillerin yüzde 40’ının yok olma tehlikesi altında olduğu düşünüldüğünde, dijital dönüşümün bu süreci ne yönde “dönüştüreceği” merak konusu. 

 

Buna karşı argüman geliştirenler, yapay zekâ ile yazma araçlarının yüzlerce dilde erişilebilir olmasının öngörüldüğüne dikkat çekiyorlar. Hatta Google, 1.000 Dil Girişimi ismini verdiği bir yapay zekâ projesiyle yeryüzündeki en popüler 1.000 dili destekleyeceğini taahhüt etmişti. 

 

Benzer şekilde, Meta da Mayıs ayında 4.000’in üzerinde konuşulan dili tanıyabilen ve konuşmaların 1.100’ün üzerinde dile transkripsiyonunu yapabilen bir yapay zekâ dil modelini de kamuoyuna tanıttı. 

 

Facebook kullanıcılarının birbirleriyle anadillerinde iletişim kurmalarına yardım etmek üzere tasarlanan Devasa Çok Dilde Konuşma/MMS isimli bu yeni teknolojideki amaç da dillerin yok olma tehlikesine karşı korunması. Söz konusu teknoloji geliştirilirken İncil gibi birçok dile çevrilmiş dini metinlerden yararlanılmış ve Yeni Ahit’in 1.100 dilden fazla okumasından oluşan bir veri seti hazırlanarak dil başına ortalama 32 saatlik bir veri toplanmış. Ancak, mevcut ses tanıma modellerinin sadece 100 dili tanıyor oluşu, bu hedefin ne kadar gerçekçi olduğunun sorgulanmasına yol açıyor. 

 

Dil Zenginliğimizi Korumalıyız

 

40’a yakın dilin konuşulduğu ve UNESCO Dünya Tehlike Altındaki Diller Atlası’na göre 18 yok olmuş veya yok olma tehlikesi altında olan dilin bulunduğu Türkiye’deki dil zenginliğini düşündüğümüzde, yapay zekâ devriminin sonucunda insan dilinin zenginliği ve çeşitliliğini kaybetmek büyük bir medeniyet kaybı olur. 

 

Elbette çoktan yok olan Kapadokya Yunancası veya Süryani dil ailesinden Hervetin’in yapay zekâ destekli yazışmalarla yeniden “canlandırılması”nı beklemek ütopik olur. Ancak UNESCO’ya göre ciddi olarak tehlikede olan Ladino, Batı Ermenicesi, Hemşince, Lazca gibi dillerin veya “kırılgan diller” kategorisinde görülen Kürtçenin Zazaki lehçesinin bu dijital devrim sırasında yeniden canlandırılması için adımlar atılması, örneğin yapay zekâ destekli öğrenme araçlarıyla bu dillerin daha geniş kitlelere tanıtılması mümkün. 

 

Zazaca klamların, İstanbul’da Kurtuluş ve Şişli sokaklarında artık tek tük konuşulan Ladino dilinde şarkıların veya örneğin Batı Ermenicesiyle Hemşin Ermenicesini buluşturan Ayşenur Kolivar ile Sibil Pektorosoğlu’nun düeti Lusi Hadig’in (Işık Tanesi) bu şekilde yapay zekâ dünyasına girmesiyle, dijital gelişimin, kaybolmakta olan kültürlere can simidi haline gelmesi sağlanacak. 

 

Aynı şekilde, yok olmakta olan dillerden çeviriler yapan tercümanların da bu dijital devrim çerçevesinde işlerini bilgisayarlara kaptırması, bu dillerin ve içindeki anlam bütünlüklerinin doğru aktarımında büyük bir yitim anlamına gelir. 

 

Dolayısıyla Türkiye’de de yapay zekâ destekli araçların kullanımında dilsel zenginlik, kültürel çeşitlilik ve insan yaratıcılığı üçlemesinin önemini hiçbir zaman göz ardı etmemek gerekiyor. Ve yapay zekâ destekli öğrenme, öğretme ve yazma araçlarının yaygınlaşmasının insanlığa faydalı olmasının yollarından biri de, toplumsallığımızı oluşturan kültürel çeşitliliği yok sayan, tektipleştiren veya bozan bir şekilde değil; onu besleyen, yaygınlaştıran, aktarımını kolaylaştıran bir çerçeveye yerleştiren bir yöntem belirlenmesi. 

 

İşte bu yüzden gerek Google’ın gerek Microsoft’un gerekse diğer teknoloji devlerinin yapay zekâ çağında dil çeşitliliğini güvenlik ekseninde tartışan ülkelere inat, küresel ve insani bir perspektiften dil ve kültür çeşitliliğini makine destekli olarak besleyecek adımlar atması çok önemli. Çünkü dil, anayasal bir haktır ve insan olmanın getirdiği en büyük ayrıcalıklardandır. 

 

Makineler üzerinden yapay bir dil tasarlayabilirsiniz, ama kadim bir kültürün içine doğmuş ve orada serpilmiş olan bir dilin zenginliğinin yaygınlaşması ve algoritmaların kapitalist ve tahakkümcü kodlamalarının ötesine geçmesi, makine-insan işbirliğinin en hoş ve demokratik örneklerinden biri olarak insanlık tarihine yazılacaktır. 

 

Türkiye’deki bilgisayar yazılımcıları ve teknoloji girişimleri bu konuda ellerini taşın altına koysalar ne de güzel olur…

En son çıkan yazılardan anında haberdar olmak için bizi @PerspektifOn twitter hesabımızdan takip edebilirsiniz.

İLGİLİ YAZILAR

Sitemizde mevzuata uygun biçimde çerez kullanılmaktadır. Bilgi için tıklayınız.