Galatasaray Üniversitesi'nden Doç. Dr. Gaye Aslı Sancar Demren'in moderatörlüğünü yaptığı panelde Stanford Üniversitesi'nden Prof. Dr. Ulrich Brückner, Open Channel Culture Kurucusu Marisa Zalabak, Forward Thinking Programlar Direktörü Jordan Morgan, IBM AIOps Başkanı Andreas Horn ve China Media Group Asya ve Afrika Dilleri Programlama Merkezi Müdür Vekili Nan Si konuşmacı olarak yer aldı.

Stanford Üniversitesi'nden Prof. Dr. Brückner, yapay zekânın kullanımı konusunda farkındalığın arttığını dile getirdi.

Yapay zekânın iyiye ve kötüye kullanılabileceğini kaydeden Brückner, yapay zekâya ilişkin normatif tanımlamaların iyi yapılması gerektiğini vurguladı.

Brückner, yapay zekânın negatif ve pozitif sonuçlarının daha yapılandırılmış şekilde ele alınması gerektiğini belirterek, "Yapay zekâ ile birlikte kendimizi öyle bir durumda bulduk ki, fikirler bizi oluşturuyor, biz fikirleri değil." dedi.

Prof. Dr. Brückner, etik standartların oluşturulması ve bunların nasıl uygulanması gerektiği konusunun küresel bir mesele hâline geldiğine dikkati çekti.

Open Channel Culture Kurucusu Zalabak da, etik çerçevenin oluşturulmasında politika yapıcıların görevlerinin ne olacağı sorusunu yanıtladı.

Yapay zekânın hayal gücünü gerektirdiğini kaydeden Zalabak, yapay zekânın olumsuz sonuçlarına değindi.

Zalabak, uluslararası etik kuralların oluşturulması gerektiğini belirterek, eski iş yapış biçimlerinin geride bırakılması gerektiğine işaret etti.

Çocuklar, yaşlılar ve savunmasız bireylerin yapay zekânın olumsuz etkilerinden korunması gerektiğini vurgulayan Zalabak, yapay zekânın silah hâline getirilmesi tehlikesine dikkati çekti.

"İsrail yapay zekâyı hedef listesi oluşturmak için kullanıyor"

Forward Thinking Programlar Direktörü Morgan, terör saldırısı, doğal afet, salgın gibi durumlarda harekete geçmek için yapay zekânın kullanımının faydalı olabileceğini belirterek, bu konuda yapay zekânın oldukça kullanışlı olduğunu söyledi.

Yapay zekânın "savaş bağlamında" da kullanıldığını kaydeden Morgan, "Yapay zekâ iletişimde kullanılıyor ama bazı şeyler yanlış yapıldığında, hatalar yapıldığında o zaman sonuçlarının olduğunu biliyoruz." değerlendirmesini yaptı.

Morgan, "7 Ekim'den bu yana İsrail askerlerinin yapay zekâyı kullandığını biliyoruz. Bir hedef listesi oluşturmak için kullanıyorlar." ifadelerini kullandı.

Yapay zekânın karar vericilerinin insanlar olduğunu vurgulayan Morgan, şeffaflık için bu kararların nasıl verildiğinin öğrenilmesi gerektiğini söyledi.

Morgan, yapay zekânın hesap verebilirliğine dikkati çekerek, "Yapay zekâ diyelim ki bir liste hazırladı, peki sivillere verilen zarardan kim sorumlu? Ya da uluslararası hukuk ayaklar altına alındığında bunun sorumlusu kim? Yapay zekâda düzenleme yaparken dikkatli olmamız gerekiyor." ifadelerine yer verdi.

Elazığ Python Programlama Eğitimi Elazığ Python Programlama Eğitimi

Morgan, yapay zekâ kullanımında kişisel sorumluluğa da değindi.

IBM AIOps Başkanı Andreas Horn da yapay zekânın yeni bir şey olmadığını, 1940'lardan itibaren konuşulmaya başlandığını ve 60-70 yıldır var olan bir kavram olduğunu dile getirdi.

Yeni teknolojilerin iyi taraflarına da odaklanılması gerektiğine dikkati çeken Horn, "Open AI ya da bazı web sitelerini hükûmetler kapatabilir, ama diğer ülkeler bunun üzerine çalışmaya devam edecek ve rekabette sizi geçeceklerdir, önünüze geçeceklerdir. Ve yapay zekâ ile de belki bazı alanlarda sizin yerinizi alacaklar. Dolayısıyla akışa dâhil olmak ve bundan en iyi şekilde fayda sağlamak gerekir." diye konuştu.

Horn, yapay zekâ etiğinde güçlü liderliğe ihtiyaç olduğunu vurguladı.

"Yapay zekânın kullanımı insan merkezli olmalı"

China Media Group Asya ve Afrika Dilleri Programlama Merkezi Müdür Vekili Nan ise yapay zekâ teknolojilerinin insanların yaşamlarını ve öğrenmesini dramatik şekilde değiştirdiğini belirterek, bu süreçte iletişim sanayisinin önemli roller üstlendiğini aktardı.

Nan, "Yapay zekâyı kullandığımız zaman daha iyi nasıl kullanacağımızı öğrenebiliriz. Daha iyi nasıl yönetebileceğimizi de öğrenebiliriz." ifadelerini kullandı.

Yapay zekânın kullanımıyla ilgili kılavuzların olduğunu hatırlatan Nan, "Yapay zekânın kullanımı insan merkezli olmalı. Biz bunu yaparken önce insan felsefesini benimsemeliyiz. Önce insanların refahını, iyiliğini benimsemeliyiz." değerlendirmesini yaptı.

Nan, yapay zekâ kullanımında gerçeklik ve güvenliğin çok önemli olduğunu belirterek, yapay zekânın herkes tarafından kullanılması gerektiğini ifade etti.