Yapay zeka, dezenformasyondan yüzde 100 korur mu?

Çağdaş Çetindemir / 19.06.2024

Hacettepe Üniversitesi Bilgisayar Mühendisliği Öğretim Üyesi Prof. Dr. Ebru Akçapınar Sezer, Anadolu Ajansı Teyit Hattı'na değerlendirmelerde bulundu. Sezer, yapay zekanın sebep olabileceği dezenformasyondan bizi korumasının da mümkün olduğunu ancak bunun yüzde 100 olamayacağını söyledi.

Yapay zeka, yazılım, doğal dil işleme, konumsal analitik ve belirsizlik yönetimi üzerine çalışan Sezer, Hacettepe Üniversitesi'ndeki çalışmalar hakkında bilgi verdi. Üniversitede 5 yıldır Bilgisayar Mühendisliği ve Yapay Zeka Mühendisliği olarak iki ayrı lisans programında çalışmalar yürütülüyor. Sezer, üniversitedeki motivasyon ve hedefe "teknoloji transferiyle üretim yerine dünyadaki diğer üniversitelerle rekabet içerisinde kalmaya çalışma" olarak dikkati çekti.  İşte özetle anlattıkları:

TÜRKİYE'DE YAPAY ZEKA EKOSİSTEMİ

2010 SONRASI: Türkiye'de son 20 yıldır -daha net olarak 2010 sonrası - yapay zeka sadece üniversitedeki personelin, akademisyenlerin ve üniversiteden yolu geçmiş araştırmacıların, öğrencilerin bildiği bir konuydu. Halihazırda da en iyi bilenler grubuna akademisyenleri katmaktan geri durmam çünkü eğer Türkiye'nin sanayisine ve kamuya bakarsak çok erken başlayıp dahil olduğumuz bir konuydu.

ÜNİVERSİTE-SANAYİ İŞ BİRLİĞİ: Biz halihazırda buna liderlik ediyoruz ama şu an sanayinin katılımı daha fazla olmaya başladı ve gerçekten orta büyük ölçekli yapay zeka projesi yapmak istiyorsanız, bunun için para lazım, insan gücü lazım, farklı disiplinlerin birlikteliği lazım. Dolayısıyla bu farklı disiplinleri bir araya getirebilecek olan iş birlikleri yani hem üniversite hem sanayinin olması lazım.

MERAKLI, HAREKETLİ AMA PLANSIZ… Biz şu an yapay zekaya popüler olarak çok meraklıyız. Hemen hemen her şirket ya da her kamu kuruluşu kendi içinde bununla ilgili bir şeyler yapmak istiyor. Departmanlar kurmak, projeler yapmak istiyor. Girişimciler bu alanda girişimler yapmak istiyor. Burada çok hareketliyiz fakat bu hareketliliğin bir sonuca ulaşması için gerekli planlılığı henüz sağlayamadık. O yüzden her geçen gün büyüyen bir arz her geçen gün büyüyen bir talep var ama sistemlerin -mühendislik ürünü sistemlerin- ortaya çıkması için gerekli yatırım gücünü de tanımlayabildiğimiz planlı iş birlikleri henüz yok.

HER İŞ BÖYLE BAŞLAR: Ama zaten her iş biraz da böyle başlar. Söylediğim bir eleştiri değil, buna doğru evrildiğimiz bir süreci yaşıyoruz. Plan ve program da bununla gelecek, hareket olmadan çünkü o gelmiyor aslında bu işlerde. Son 5 senede gerçekten farklı bir farkındalığın ve farklı bir iş yapma, ürün geliştirme, katma değerli çözümlere ulaşabilme hevesinin olduğunu çok net bir biçimde gözlemliyorum.

RAPORLARDA GÖRÜLÜYOR: Bunu zaten bütün raporlar da gözlemliyor. Yani Türkiye'yle ilgili herhangi bir rapora baktığınızda ya yapay zekaya öncelik veriyordur ya dikkat çekiyordur ya da bu alanda gelişen pazarla ilgili büyüyen rakamlar söylüyordur.

SON 5 YIL KRİTİKTİ: Son 5 yılı iyi yaşadığımızı söyleyebilirim açıkçası, kritik de 5 yıldı. Eğer bunu iyi yaşamasaydık farkımız çok açılacaktı. Çünkü bu bir rekabet işi. Dolayısıyla ben olumlu bakıyorum, şimdi artık yüksek güce sahip iş birliklerinin odaklı ürünler şeklinde kümelenmesi gibi bir noktaya evriliş izliyorum.

Togg GÜZEL KÜMELENMİŞ BİR İŞ BİRLİĞİ: Çok alakasız görünmekle beraber örneğin Togg bu anlamdaki çalışmaları tetikleyen güzel kümelenmiş bir iş birliği. Togg'un içinde de çünkü yüksek teknoloji ve benzer eylemler yerine getirilmiş. Savunma aynı şekilde domine ediyor. Belki bunun sağlıkta, dijital vatandaşlıkta gibi diğer kümelerini açmaya ihtiyacımız var.

EKSİKLER… İHTİYAÇLAR… Rakipler için Amerika ve Çin dersek, iki farklı ucu temsil ediyorlar. Çin'de her şeyin liderliğini aslında devlet yapıyor. Amerika’da her şeyin liderliğini özel-tüzel kişiler yapıyor. Biz arasındayız. Biz kamusal teşviklerle ve yönlendirmelerle başlayıp sonra kendi yolunu bulabilen bir ülkeyiz. Yapay zekayla ilgili açıkçası devletin yüksek teşvikle kendi öngörebildiği, örneğin ihracatı azaltacak bir ürün grubu çerçevesinde yaratacağı kümelenme, doğru pratiklerini ve süreçlerini sektöre ve teknisyenlere öğretiyor. Onun arkasından özel sektör aslında kendi yatırımlarıyla geliyor.

KAMUSAL MÜDAHALEYE İHTİYAÇ VAR: Benim bu tarz bir kamusal müdahaleye yani kamu yöneticilerinin müdahalesine ihtiyaç var şeklinde somut bir tespitim var. Çünkü bu dağınıklığı da -bir yerde odakladığınızda- sonuca dönüştürebileceksiniz. O yüzden biz ne Amerika ne Çin gibi değil, başlangıcı kamusal destekle olan ama sonra kendi yolunu bulan bir hareketliliği sağlamak zorundayız. O yüzden de kamu yöneticilerinden ben böyle bir talepte bulunmuş olayım. "İhtiyaçlarımızın çözümü için bizi bir araya getirme konusunda bir göreviniz var" demiş olayım.

DEZENFORMASYON-YAPAY ZEKA BAĞLANTISI: Çok zor bir konu bu. Üretken yapay zeka neyi üretiyor? Yeni içerik üretiyor. Ürettiğiniz yeni içeriği ne için kullanacağınız sorusu, mühendisler olarak bizi de çok aşıyor. Yani yapay zekanın sadece geliştirme ve gerçekleştirme kısmı, mühendislik eylemi. Bunu ne için yapacaksın? Kimler kullanacak? Etik olarak doğru mu? Kullanılmasıyla ilgili yasal düzenlemeler var mı? Sorumlulukların paylaşımı?.. Bunların çoğunun cevabı mühendislerde değil, bizde değil açıkçası yetebileceğim alanlarda değil. Ben nasıl iyi ve sağlıklı bir model yapılır, onu bilirim.

KAYNAK VE ÇARE: Üretken yapay zekaların içerdiği içeriklerin, hakikaten kendimizi bundan koruyacak kurallarımız olmazsa hepimize zarar verme ihtimali var. Çünkü kişisel verilerinizi kaptırdığınız anda zarar görebilirsiniz. Bu kişisel veri, herhangi bir parkta gezerken kamera görüntünüz de olabilir. Benim bir yerde dolaşırken kamera görüntülerim elde edilirse ben herhangi bir yerde dolaşırmış gibi gösterilebilirim ve buna karşı benim yapabileceğim hiçbir şey yok.

KORUYUCU ERK: Evet "deepfake" tarzı içerikleri yakalayacak olan yine yapay zeka modelleridir. Bunu geliştirmekle mükellef olan ben ve benim gibi meslektaşlarımdır ama bireysel olarak da bizi bundan koruması gereken hukuki, psikolojik ve sosyolojik önlemleri alması gereken, mühendisler değil. Ben yine burada topu devlete atan bir kolaycılık içinde olmak istemem ama sadece mevzunun ne kadar yaygın olduğunu ve bununla ancak böyle bir erkin yönetiminde mücadele edebileceğimizi söyleyebilirim.

YÜZDE 100 OLMAZ: O nedenle de yapay zekanın üretken versiyonuyla sebep olabileceği dezenformasyonda teknik olarak yine bizi koruması mümkün ama bu yüzde 100 olmaz.

BAŞVURUDA EKSİĞİZ: Bunun yüzde 100 olmayacağı demek, "Benim ve benim gibi vatandaşların, hepimizin, bir gün bir mağduriyet yaşama ihtimali var." demek. O zaman da bizim başvurabileceğimiz yerler olması lazım. Bu kısımda bir miktar ulusal eksikliğimiz olduğunu tespit etmek zorundayım.

YAPAY ZEKA KONTROLDEN ÇIKAR MI?

DENE-YANIL: Aslında öğrenme rejimlerinden; gözetimli gözetimsiz versiyonlar diye bakarsak orada insanın dışına çıkamaz. Ama bu üretkenlerin de eğitiminde kullanılan pekiştirmeli öğrenme "dene-yanıl" ile gerçekleştiği için siz bir yapay zeka modeli elde ettiğinizde onun da başka bir modeli insansız eğitmesi ve aynı yeteneği -kendindeki yeteneği- çünkü artık o doğrusunu öğrendi, ona transfer etmesi mümkün. Yani siz bir robota yürümeyi öğretirseniz o da diğer robotlara öğretebilir. Bu üretkenden de önce vardı zaten, yani bu 15 yıldır vardı.

ÜRETKEN YAPAY ZEKADA RİSK NE?

ÖĞRENDİĞİ BELİRLİ SINIRI BELİRSİZ: Üretkenle gelen risk şu oldu: Ben yürümeyi öğretiyorum, koşmayı öğretmiyorum ama koşmayı kendisi zamanla öğrenebiliyor. O zaman koşanları da eğitebiliyor. Çünkü ben ne öğrendiğini biliyorum ama sınırının ne olduğunu bilmiyorum. 

"KONTROLDEN ÇIKMAZLAR" DENEMEZ: Örneğin bu ChatGPT… İyi ki çıktı süper bir farkındalık oldu herkes için, ben onun insana yakın cümleler kurabildiğini biliyorum ve gittikçe de aslında başarılı olmaya başladı. Ama ben onun bu yeteneğinin aynı zamanda makale yazmaya evrilebileceğini kontrol edemiyorum. O benim primer öğrettiğim yetenek, tekrarlı ve çeşitli şekilde kullanılarak başka şeylere dönüşüyor. Bunlar birbirini eğitebildikleri için evet "Kontrolden çıkar mı?" sorusunun cevabına "Yarın kontrolden çıkarlar" demiyorum ama bugün buna "Kontrolden çıkmazlar" diyebilecek bir bilim insanı bence yok.

SINAVDA SORULARI YAPAY ZEKAYA SORAN ÖĞRENCİ: O yanlış bir şey, onu savunmak gibi bir noktaya asla gelemem. Hele o sınavdaki başarılı olmuş çocuklara burada eğitim vermeye çalışan öğretim üyeleri olarak… Bizim belki de Türkiye’de yapılan sınavlar içinde en üstüne titrediğimiz bu seçme sınavları, aşamalı şekilde…

EĞİTİM SİSTEMİ DEĞİŞMELİ: (Öğretim üyesi olarak eğitimde değişim gerektiğini çok hissettiğine işaret ederek) Yalnız bir şeye de vurgu yapmak lazım, sınavı geçin, çocuğu sınıfa alıyorsunuz, kazandı-geldi bölüme. Elinin altında yapay zekayla donatılan pek çok araç varken benim hala tahtada yansılar üzerinden bir şeyler anlatmaya çalışmam, "Anlamadıysan git kitaptan oku" demem, bu sistem çalışmıyor artık. Bu çalışmaz! Yani yapay zekayı çok boyutlu ele alıp "Bir miktar regülasyona ihtiyacımız var" dedik ama ben başka bir ihtiyaca vurgu yapayım, bu kötü olaydan daha iyi bir konuya geleyim: Bizim eğitim sistemimiz değişmeli! Bakın, siz soru sorup cevabını alabilen bir çocuğa ödev verirken eskisi gibi veremezsiniz ve bunu -yapay zekayı kullanma- yapma diyemezsiniz. Bir yapmaz iki yapmaz, yapar ama çünkü kitle psikolojisi diye de bir şey var. Bir öğrenci değil, 30 kişilik grubun içinde aynı ödevi yapmaya çalışıyorlar. Bunlar birbirini etkiliyor.

K-12'LER GELECEĞİN ÜRETİCİLERİ: Biz artık K-12 dahil olmak üzere yapay zekayı kullanmakla da ilgili bir eğitim bir alt yapı vermek zorundayız. Sorumlu yapay zeka, bugünün K-12'lerinden bazıları, 10 sene sonra sorumlu yapay zekayı üretenler arasında yer alacak. Dolayısıyla biz hala eski usullerle bazı şeylere devam edelim ama "Yapay zeka kontrolümüzden çıkar mı?" diye sorduğumuzda biraz tembellik yapıyoruz. Madem kontrolümüzden çıkar, bir şeyleri değiştirmek zorundasın.

UÇAK ÖRNEĞİ: Uçak, çok ileri bir mühendislik ürünüdür ama uçağın kendi kendine bir davranışı yoktur. Otomatik pilot bile pilotun güdümüyle gir-çık gerçekleşiyor. Dolayısıyla bir uçak mühendisinin etiğinden bahsedebiliriz. İnşaat mühendislerinin etiğinden bahsederiz, harika köprüler yaparlar, ben üzerinden geçerken hep derim; sıkı mühendislik ürünü. Ama o köprünün kendi davranışı yoktur. Şimdi yapay zekaya geldiğimizde benim mühendis olarak bir etiğim var Ebru olarak, bir de benim geliştirdiğim modelin bir etiği var ve o kendi kendine davranıyor.

YARATICI ETİK OLSA BİLE… Etik, yapay zeka için iki kademeli bir problem. Benim etik olmam modelin de etik olacağı anlamına gelmiyor. Yani ben etiğim diye model etik olmuyor. Model veriden öğrendiği için benim onu beslediğim bütün geçmiş verinin etik olması lazım ki ben garanti edeyim. Dolayısıyla biz etiği yapay zekada çok özel konuşmak zorunda kalıyoruz.

ETİK HUKUĞUN ÇOK ÖNÜNDE: Etik kusur, başka disiplinlerde trajik sonuç yaratmayabilir ama yapay zekada etik hukuğun çok önündedir. Siz etik kusur işliyorsanız, kesin birileri bir şeyler -neyse o konu bilmiyorum- bir mağduriyet yaratıyorsunuz. Sizin etik bir kusurunuz varsa; örneğin bir hastaya gereksiz yere şeker hastalığı duyarlılığı olduğunu söyleyebilirsiniz ya da söylemeyebilirsiniz ya da kredi başvurusunu onaylamazsınız sırf oturduğu yerden dolayı…

ULUSAL BİLİNÇ YÜKSELMELİ: O yüzden yapay zekanın bu konuyla yeniden ve yeniden ele alınması gerektiğini bunun da ulusal bilinçte yükselmesi gerektiğini düşünüyorum. Çünkü bu kısım, sadece bireysel sorumlulukla aşılabilecek bir kısım. Yapay zeka ve etik üzerine özel farkındalık çalışmalarının çok gerektiğine inanıyorum.