Yapay zeka kontrolden çıkabilir mi?

Otonom, kimyasal ya da biyolojik silahlar yapay zeka ve robotik alanlardaki hızlı gelişmelere paralel olarak insanlık için korkutucu noktalara ulaşabiliyor. Peki yapay zeka kontrolden çıkabilir mi?

Yapay zekâ sektörü, her geçen gün daha fazla büyüyerek, insanların yaşamlarını daha da kolaylaştırıyor. Sağlık, savunma ve birçok başka sektörde verimliliği artırıyor. Sıklıkla yapay zekâ sistemleri yalnızca insanların yeteneklerini eşitlemekle kalmıyor, aynı zamanda bunları büyük ölçüde aşıyor. İnsanların hızla karar veremediği durumlar, yapay zekâ tarafından hızla çözülebiliyor. Karmaşık mantık süreçleri içeren sorunlar, yapay zekâ algoritmaları sayesinde son derece kısa sürede çözülebiliyor. Ancak yapay zekâ kullanımı birçok riski de beraberinde getirebiliyor.

Ülkeler arasındaki rekabetin de etkisiyle, yapay zekânın askeri kullanımı giderek güçleniyor. ABD, Güney Kore, Rusya, İsrail ve Avusturya gibi önde gelen ülkeler, ordularının saldırı ve savunma sistemlerine yapay zekâyı entegre etmek ve savaş sürecini otomatikleştirmek için ciddi çalışmalar yapıyor. Tam otomatik dronlar, hedefleri vurup üslerine geri dönebiliyor. İnsan yüzlerini tanıma yeteneği olan tüfekler üzerinde çalışmalar devam ederken, "insansız" savaşların ne kadar yakın olduğu sorusu insanların kafasını kurcalıyor. Dolayısıyla, geleceğin savaş teknolojisinin yapay zeka tarafından belirlendiği bir döneme doğru gidiyor olabiliriz. Tüm bu gelişmelere rağmen, önde gelen ülkelerin vazgeçemediği yapay zeka teknolojileri, gelecekte neleri değiştirecek? Bu değişiklikler potansiyel olarak tehlikeli olabilir mi?

Elips Haber’den Sümeyye Aksu, bu soruyu Yapay Zeka Politikaları Derneği Genel Sekreteri İrem Sezer’e sordu. Yapay zekanın, kötü niyetli aktörler tarafından kötü amaçlar için kullanılabileceğine dikkat çeken Sezer, “Örneğin, siber saldırılar, sahtecilik, dolandırıcılık ve diğer suçlar için yapay zekâ kullanımı artabilir. Bu, kişisel veri hırsızlığı, siber casusluk, bilgisayar virüslerinin geliştirilmesi gibi tehlikeleri artırabilir. Yine buna bağlı olarak yapay zekâ, büyük miktarlarda kişisel veriyi işleyebilir. Veri gizliliği ihlalleri, kişisel ve hassas bilgilerin kötüye kullanılmasına yol açabilir. Bu gibi durumlar yapay zekânın tehlikeli olabileceği düşüncesine yol açabilir” ifadelerini kullandı.

Yapay zekânın kötü amaçlı kullanımının güvenlik risklerini beraberinde getirebileceğini ancak nükleer kodları çalabilecek, salgın hastalıklar yaratabilecek ve dünya savaşlarını tetikleyebilecek senaryoların gerçekleşmesi için bir dizi koşul ve kontrollerin atlatılması gerektiğini ifade eden Sezer, şunları söyledi: “Yapay zekâ, kötü niyetli kullanım, veri gizliliği ihlalleri, otomasyonla iş kaybı, etik sorunlar ve önyargılı algoritmalar gibi riskler taşır. Bu riskler, insan toplumlarına uzun vadeli zararlar verebilir. Yapay zekâ teknolojisinin güvenli ve etik bir şekilde kullanılması için düzenlemeler ve denetimler gereklidir. Yapay zekâ ile ilgili riskler üzerine araştırmalar ve etik ilkeler geliştirmek, potansiyel tehlikeleri azaltmaya yardımcı olabilir. Yapay zekâ, siber saldırılar yoluyla hassas verilere erişebilir ve nükleer kodları ele geçirebilir. Ancak nükleer kodlar genellikle son derece güvenli ve korumalı bir şekilde saklanır ve erişimleri sıkı bir şekilde kontrol edilir. Bu tür bir saldırı gerçekleşmesi son derece zor ve karmaşık olacaktır. Yapay zekâ, biyolojik araştırmalarda ve genetik mühendislikte kullanılabilir. Ancak bir salgın hastalık yaratmak için sadece yapay zekâ yeterli değildir. Bu tür bir eylemin gerçekleşmesi, laboratuvarlarda ve tıp alanında çok sayıda güvenlik önlemi ve denetim gerektirir. Yapay zekâ, askeri sistemlerde ve siber güvenlik alanında kullanıldığında dünya savaşlarını tetikleme potansiyeli taşıyabilir. Ancak bu, siyasi, etik ve hukuki faktörlerin bir sonucu olacaktır. Dünya savaşlarının tetiklenmesi çok ciddi sonuçlara yol açar, bu nedenle uluslararası ilişkilerde denge ve diplomasinin önemi büyüktür.”