İSTANBUL (AA) - Verilerden yola çıkarak strateji geliştirilmesine yardımcı olan yapay zeka teknolojilerinin gündelik hayatta kullanımının artması beraberinde birçok endişeyi de getirirken, "adil" ve "doğru" veri, söz konusu teknolojinin geleceğinde kritik rol oynuyor.

Microsoft'un uzun çabalar sonucu ürettiği ve Twitter'da kullanıcılarla İngilizce sohbet etmesini beklediği yapay zeka botu TAY, ırkçı ve küfürlü cevapları nedeniyle 24 saat içerisinde durdurulmuştu. Kullanıcılar üzerinde büyük bir şaşkınlığa sebebiyet veren bu cevaplardan bazılarında TAY, kadınlara ve Yahudilere hakaret etmiş, Meksika sınırına duvar örülmesi gerektiğini belirtmişti.

İngiliz kanalı Channel 4 tarafından yapılan bir habere göre, online alışveriş sitesi Amazon, kullanıcılarına "sıklıkla birlikte alınan ürünler" kategorisinde, bomba yapımında kullanılan ürünleri önermişti. Beraber alınıp birleştirildiğinde küçük çaplı hasara neden olacak bu bomba yapımında kullanılacak ürünler, Amazon tarafından aynı kategoride ele alınmıştı. Channel 4 muhabirinin ilgili ürünlerden birini sepete eklemesi sonrası Amazon, bomba yapımına imkan veren diğer ürünleri de tavsiye etmişti.

Öte yandan, yapay zeka ve robotların, gelecekte insanlık için tehdit oluşturabileceği endişeleri de giderek artıyor. Sahte olduğu ortaya çıksa da sosyal medyada büyük bir hızla yayılan, kendisine kötü davranan sahibinden intikam alan robot videosu ve insansı robot Sophia'nın "İnsanlığı yok edeceğim" açıklaması bu endişeleri gün yüzüne çıkarıyor.

Söz konusu gelişmeler yapay zeka konusunda varılan noktayı gözler önüne sererken, bu teknolojilerin hangi alanlarda ve ne şekilde kullanılacağının geleceğin şekillenmesinde en önemli faktörlerden olacağı belirtiliyor.

Yapay zeka teknolojilerinin gelecekte insanlık için büyük bir umut mu yoksa beraberinde getireceği tehlikeler açısından bir tehdit mi oluşturacağı ise ülkelerin bu teknolojiyi nasıl konumlandıracağı ile ilişkili olacak. Yapay zeka teknolojisinin temelini oluşturan makine öğrenmesi ise kritik rol oynayacak.

"Mevcut veriler istenmeyen sonuçlar verebilir"

İstanbul Teknik Üniversitesi Öğretim Üyesi ve Yapay Zeka ve Veri Bilimi Uygulama ve Araştırma Merkezi Müdürü Prof. Dr. Gözde Ünal, AA muhabirine yaptığı açıklamada, makinelerin, mevcut verilerden beslenerek öğrendikleri için bazı istenmeyen sonuçlar da verebileceğini kaydetti.

Günümüzde makine öğrenmesinde kullanılan çeşitli teknikler olduğunu anlatan Ünal, makine öğrenmesi sistemlerinde belli bir görevi çözmeye yönelik bir performans ölçütü tanımladıklarını, bu ölçütü en iyiye götürecek şekilde sistemin veya modelin parametrelerini güncellediklerini söyledi.

Ünal, makine öğrenmesi tekniklerinin çoğunlukla "derin öğrenme" yöntemlerini kastettiğini aktararak, şunları kaydetti:

"Derin öğrenme; nöronlardan esinlenen basit ama çok katmanlı ve geniş yapay sinir ağları modellerine dayanırken, öğrenmeyi, yani kendisini güncellemeyi algoritmaya girdi olarak sağlanan verilere bakarak yapıyor. Diyelim ki yapay zeka algoritmasının bir kediyi tanımasını sağlamak istiyoruz. Eski sistemlerde kediyi tanıması için kendimiz veya geçmiş istatistiklere bakarak kuralları belirliyorduk.Örneğin, makine resimdeki cismin şekline bakarak kedi olup olmadığına karar versin gibi... Şimdi ise derin öğrenmeye dayalı sistemlere, kedi olarak etiketlenmiş binlerce fotoğrafı girdi olarak veriyoruz. Derin sinir ağı modeli; çok katmanlı bir yapıya ve milyarlarca parametreye sahip olduğu için yüksek sayıdaki veriyi kullanarak kedinin sadece şeklini değil, rengi, deseni, bulunduğu ortamı ve benzeri birçok bilgiyi birleştirerek kediyi tanımayı gerçekleştiriyor. Algoritmanın çıkardığı özellikler bazen bizim tanımlayabileceğimiz bazen ise tanımlayamadığımız özellikler olabiliyor."

"Yapay zeka algoritmaları azınlıkları dezavantajlı duruma düşürebilir"

Prof. Dr. Gözde Ünal, pekiştirmeli öğrenmenin, yapay zekanın kullandığı bir diğer öğrenme yöntemi olduğunu vurguladı.

Pekiştirmeli öğrenme metodunda daha dinamik ve belirsiz ortamlarda, uzun vadede en iyi sonucu elde etmeye yönelik bir hesaplama yapıldığını vurgulayan Ünal, "Örneğin, satranç ve go oyunu oynayan algoritmalar buna örnek olarak gösterilebilir. Yapay zeka algoritması sürekli rastgele satranç oyunu oynuyor, bazen kazanıyor bazen de kaybediyor. Böylelikle uzun vadede hangi hamlelerin kendisini zafere ulaştıracağını anlamaya çalışıyor. Bu sadece oyunlarda değil, planlama ve strateji gerektiren her işte kullanılabiliyor." şeklinde konuştu.

Ünal, yapay zeka uygulamalarının bazı ayrımcılıklara sebebiyet verebileceğine dikkati çekerek, şöyle devam etti:

"Geçtiğimiz günlerde yayımlanan bir çalışmada, Afrika veya Asya ülkelerinden gelen verilere uygulanan bazı yapay zeka algoritmalarının yüzde 20 daha düşük performansla çalıştığı raporlandı. Bu, uygulamaları geliştirenlerin daha çok Kuzey Amerika kıtasından olmasından kaynaklanıyor. Günümüzdeki yapay zeka algoritmalarının geliştirilmesinde eğitim verileri dediğimiz makine öğrenme modelini kullanıma hazırlayan veriler önemli bir yer tutmakta. Bu veriler, daha çok Avrupa ve Amerika'dan toplandığı için Afrika gibi yerlerde doğru sonuçlar vermeyebiliyor. Örneğin, bir yapay zeka yüz tanıma algoritması beyaz bir insanı daha rahat tanırken, siyahi bir insanı tanımada zorlanabiliyor ya da yapay zeka hukuki karar verme durumuna gelirse Amerika'da siyahi insanları daha fazla suçlu bulması gibi sıkıntılı durumlar oluşabilir. Yapay zeka algoritmasının taraflılığı ve ayrımcılık gibi durumların önüne geçmek için eğitim verilerinin, azınlıkları dezavantajlı duruma düşürmeyecek şekilde hazırlanması ve düzenlenmesi gerekiyor."

Muhabir: Abdulkadir Günyol