Teknolojinin gelişmesi hayatımızı oldukça etkilemektedir. Bu gelişmenin insan hayatına olumlu etkileri olduğu kadar olumsuz etkileri de vardır. Günümüzde daha da yaygınlaşan ve sık sık kullanılmaya başlayan, daha da gelişmesi ve hayatımıza hızlı bir şekilde girmesi açısından yapay zekâ üzerinde yoğun olarak çalışılmaktadır. Yapay zekâların adeta insanın beynini ve çalışma yapısını taklit ederek insanlardan bir şeyler öğrenip faaliyette bulunma amaçları vardır. Yapay zekâ bir insanı anlama ve insanın gerçekten özel bir varlık olup olmayacağı üzerinde bir araştırmadır. Yani insanın felsefesini anlama çalışmasıdır. Çünkü yapay zekâlar insanı taklit etmektedir.

Günümüzde çokça yaygınlaşan, yapay zekâ algoritması ile çalışan, insanları taklit eden bir teknoloji vardır ki buna “deepfake“adı verilmektedir. “deep” sözcüğü “derin öğrenme”, “fake” sözcüğü “sahte, yalan” olarak Türkçe’ye çevrilmektedir. Yani deepfake teknolojisinin ismi “sahte öğrenme” olarak çevirebilir.

Deepfake teknolojisi dünyada var olmuş bir insanı dışarıdan bakıldığında hiç anlaşılmayacak derecede taklit edilebilmektedir. Sahte öğrenmenin başarılı olması için taklit edilmesi istenilen insanların görselleri öncesinde programa yüklenmektedir. Bu programlarda, programa taklit edilmesi istenilen insanların ne kadar çok görüntüsü yüklenirse o derecede iyi sonuç elde edilmektedir. Daha sonrasında başka insanın istediği hareketler çekilerek yine aynı programa atılmakta ve programdaki yapay zekâ algoritması sayesinde gerçekçi bir şekilde taklit edilen insan bu hareketleri yapmış gibi gösterilmektedir. Deepfake iki sinir ağı ile çalışmaktadır. Bir sinir ağı yüz taklitleri yapabilirken diğer sinir ağı ise taklitleri kusursuz yani bu alanda bir uzman tarafından bile çok zor anlaşılacak derecede taklit etmek için çözüm yöntemleri geliştirmektedir. Deepfake yapay zekâ teknolojisi yani öğrenme yoluyla bu işleri yaptığı için, deepfake yazılımcısı uzmanlarının bu sahteliğin nasıl anlaşıldığını bildikleri takdirde işler hayli zorlaşmaktadır. Çünkü yazılımcı böylece kendi açıklarını bulacak ve açıkları deepfake yazılımına öğretecektir. Böylece çok ama çok zor derecede sahtelik anlaşılabilecektir. Bu sahtelik anlaşılıncaya kadar ise birçok insan mağdur olacaktır. (Bu cümledeki görüşümüzü daha önceden yazdığımız “Hızla Gelişen Teknoloji, Yapay Zeka ve Hukuk” konusundaki makalemizde de belirtmiştik.)

Deepfake teknolojisine bu aşamada en iyi ve güncel örnek Kemal Sunal’ın oynadığı bir reklam filmi verilebilir. Kemal Sunal bilindiği üzere hayatta değildir. Ama bu kişinin hayatta olmadığını bilmeyen bir insan reklam filmini izlediğinde, bu kişinin gerçekten o sete gittiğini ve bu reklam filminde oynadığını sanacaktır.Birkaç ay önce, Güney Kore’de MBN kanalında sunucu Kim Joo-Ha da bunu destekleyecek bir örnek olacaktır. Her akşam olduğu gibi Kim Joo-Ha,haberleri aktarmaya başladı. Ancak bu gerçek sunucu değil yani bir deep-fake teknolojisi ile üretilen bir sunucuydu. Kimse bunu anlamamış daha sonrasında haberlerde açıklanmasıyla bu bilgiye erişilmişti. Göründüğü gibi çıplak gözle anlaşılamayacak derecede gerçeklik sunan bir teknoloji.

Yapay zekâ ile ölmüş biri ile yazılı olarak da konuşulabilinmektedir. Bu yazılım ölen kişinin tüm yazılarını (örn; twitter, instagram gönderileri, günlükleri vs.) inceleyerek adeta onun beynine bürünmektedir. Daha sonra siz onunla konuşurken bir anınızdan bahsettiğinizde onu size soracak ve hatta sizinle dertleşebilmektir. Bilim insanı Einstein için bu teknoloji yapılmıştır. Einsten hakkındaki bütün bilgiler, eserleri, yazıları bu teknolojiye aktarılmış daha sonra onunla gerçek bir insan konuşmaya başlamıştır. Einstein’in gerçekten yaşadığı ve bizimle uzaktan yazıştığı gerçekliği bu teknoloji ile mümkün olmuştur.

Görüldüğü gibi bu teknoloji çok iyi ve oldukça da eğlencelidir. Çünkü çok sevdiğimiz kişilerin aramızdan ayrılması ile bu kişiler artık ekranlarda görülememektedir. Bu teknoloji sayesinde bu kişiler Kemal Sunal örneğinde olduğu gibi canlandırılarak gerek dizilerde, gerek filmlerde gerekse de reklamlarda oynatılabilmektedir. Ancak şöyle bir durum vardır ki bu teknoloji kötü amaçlarla da kullanılabilecektir. Barak Obama örneğinde bu kişi taklit edilerek, Donald Trump’a hakaret ettirilse bunun sahte olduğu sıradan bir insan tarafından bilinemeyecektir. Türkiye’de de siyasette kullanılsa sahte olup olmadığı sıradan insanlar tarafından anlaşılamayacak ve neredeyse tüm insanlar bunun gerçek olduğuna inanacak ve ülkede bir kargaşa çıkacaktır. DeepFake ile intikam almak için sevilmeyen bir insan taklit ettirilerek birilerine hakaret ettirilecek, birileri dolandırılacaktır. Böylece ortada bir kaos ortamı oluşacak, ceza davaları artacak, birçok masum insan bir gece ansızın karakola götürülerek sorguya çekilebilecektir. Ünlü insanları komik duruma düşürecek videolar yapılacak, pornografik görüntüler üretilecek veya bazı insanların görüntüleri izinsiz kullanıldığı için tazminat davaları da açılabilecektir.

Daha geçenlerde aramızdan ayrılan Rasim Öztekin çok sevilen bir sanatçıdır. Onu tekrar ekranlarda görmek için yapımcılar tarafından bu teknoloji kullanılabilecektir. Ancak bunun izinsiz yapılması takdirinde ailesine yani mirasçılarına bir tazminat ödenmesi söz konusu olabilecektir. Bu sadece ünlü kişiler için değil tüm insanların başına gelebilecek bir sorundur. Ses konusu ise bu teknoloji sayesinde çok kolay taklit ettirilebilmektedir. Kısacası kişisel verilerin izinsiz kullanılması bu teknoloji ile bir sorun olmaktadır. Bu teknoloji ile bunların hiçbirine gerek kalmadan özgü yüzler de yaratılabilmektedir. Ancak bunun sahibi ise yine günümüzdeki eserler gibi bunun üreticisi olacaktr.

Gerek yapay zekâ gerekse deepfake teknolojisi için ülkemizde ve dünyanın her yerinde çalışmalar yapılmaktadır. Teknolojinin insan faydası için çalışması, insana zarar verecek bir şekilde kullanılması bu çalışmaların temel konularıdır. Ancak hukukun tüm sorunların önüne geçeceğinden hiç şüphe yoktur. Hukuk her ne kadar yeniliklerin hızına yetişemese de er ya da geç tüm sorunların önüne geçmektedir.

Av. Begüm GÜREL (L.L.M.) & LAÜ Hukuk Fakültesi Öğrencisi Furkan Bahat BIÇAKCI 

Bir cevap yazın

E-posta hesabınız yayımlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

Fill out this field
Fill out this field
Lütfen geçerli bir e-posta adresi girin.
You need to agree with the terms to proceed

Menü