İtalya geçtiğimiz günlerde kişisel gizlilik endişeleri nedeniyle ChatGPT ve benzeri yapay zeka modellerinin kullanımını yasaklama kararı aldı. İtalya Veri Koruma Ajansı , OpenAI’nin popüler bir sesli yapay zeka modeli olan ChatGPT’nin kullanıcıların kişisel verilerini yeterli güvenlik önlemleri olmadan saklayıp işleyebileceğine dair endişelerini dile getirdi. (Tagesschau)

ChatGPT’nin İtalya’da yasaklanması kararı, modelin gizlilik politikaları ve prosedürlerine ilişkin derinlemesine incelemeler ve değerlendirmelerin ardından alındı. İtalyan yetkililer, ChatGPT’nin kullanımıyla ilişkilendirilebilecek kullanıcı verilerine yönelik potansiyel gizlilik ve güvenlik risklerinden endişe duymaktadır.
İtalya Veri Koruma Ajansı ayrıca ChatGPT’nin, diğer yapay zeka modellerine benzer şekilde, oluşturulan metinlerde farkında olmadan ayrımcı içerik veya önyargı içerebileceğine dair endişelerini dile getirmiştir. Bu durum, özellikle sosyal veya etik önyargıları teşvik etme açısından modelin kullanımı için daha fazla risk oluşturmaktadır.
İtalya’da ChatGPT’nin yasaklanması kararı, kişisel verilerin korunması ve YZ modellerinin etik kullanımı konusunda artan endişeleri vurgulamaktadır. Diğer ülkelerin ve yetkililerin de mahremiyet ve metin oluşturmak için YZ modellerinin kullanımı konusunda benzer endişeleri paylaşması ve benzer adımlar atması beklenmektedir.
ChatGPT’nin sağlayıcısı OpenAI, gizlilik politikalarını ve prosedürlerini ciddiye aldıklarını ve kullanıcı verilerinin güvenliğini ve korunmasını iyileştirmek için sürekli çalıştıklarını vurguladı. Ancak bu gelişmenin YZ modellerinin gelecekteki davranışlarını ve farklı ülkelerdeki kullanımlarını nasıl etkileyeceği henüz belli değil. İtalya’nın gizlilik endişeleri nedeniyle ChatGPT’yi yasaklaması, gizliliğin korunması ve YZ modellerinin etik kullanımı yönünde önemli bir adımdır. Diğer ülkeler ve kuruluşlar, kullanıcı verilerinin korunmasını ve YZ modellerinin etik kullanımını sağlamak için benzer önlemler alabilir. YZ modelleriyle ilgili gizlilik ve etik kaygıların teknoloji ve gizlilik tartışmalarında önemli bir konu olmaya devam etmesi beklenmektedir. OpenAI gibi şirketlerin, olası yasal veya düzenleyici zorlukları ele almak için YZ modellerinin veri koruma politikalarına ve düzenlemelerine uygun olmasını sağlamaya daha fazla dikkat etmeleri gerekecektir.
İtalya kararı sonrasında özellikle ChatGPT ve benzeri yapay zeka (YZ) modelleri hakkında etik ve gizlilik tartışmaları gündemde yer almaktadır. Bu tartışmaların ana sebebi genel olarak bu tip yapay zeka modellerinin, kullanıcıların verileri ve bu verilerin kullanım biçimi üzerinde toplanmaktadır.

Bu tartışmalar genel olarak aşağıdaki kaygılardan ve konular üzerinde hala devam etmektedir. :
Veri gizliliği: Sohbet botları ve diğer YZ modelleri, kullanıcıların verilerini kullanarak dil tabanlı içerik oluşturur. Ancak, kullanıcıların üretilen içerikleri paylaşırken hangi verilerin kullanıldığı ve nasıl işlendiği konusunda endişeler vardır. Veri gizliliği, kullanıcıların kişisel verilerinin korunmasını ve izin vermedikleri durumlarda kullanılmamasını gerektirir.
Veri kaynakları ve ön yargı: Yapay zeka sohbet botları, büyük veri kümesinden eğitildiği için, bu verilerdeki potansiyel ön yargı ve ayrımcılık modellere yansıyabilir. Üretilen içeriklerde toplumsal, cinsiyet, ırk, din gibi konularda bilinçsiz ön yargılar yer alabilir. Bu da etik ve sosyal sorumluluk kaygılarına yol açar.
Etik kullanım: ChatGPT gibi YZ modelleri, potansiyel olarak kötü niyetli kullanımlar için kullanılabilir, örneğin sahtekârlık, manipülasyon, taciz gibi amaçlarla kullanılabilir. Bu nedenle, etik kullanım konusunda kaygılar bulunmaktadır.
Sorumluluk ve hesap verebilirlik: YZ modelleri genellikle karmaşık yapılar içerir ve kullanıcıların hangi sonuçların neden ve nasıl üretildiğini anlaması zor olabilir. Bu durum, sorumluluk ve hesap verebilirlik konusunda endişelere neden olur. Hangi tarafın ne kadar sorumlu olduğu ve kimin suçlanacağı konusunda belirsizlikler bulunur.
Eğitim verileri ve güvenilirlik: ChatGPT ve diğer YZ modellerinin güvenilirliği, kullanılan eğitim veri kümesine bağlıdır. Eğer eğitim verilerinde hatalar, yanlışlıklar veya eksiklikler bulunuyorsa, bu modelin üreteceği sonuçların güvenilirliği de azalabilir. Eğitim verilerinin doğruluğu, güvenilirliği ve güncelliği konusunda kaygılar bulunur.
Bu etik ve gizlilik konuları, ChatGPT ve diğer YZ modelleri gibi yapay zeka teknolojilerinin kullanımıyla ilgili tartışmaların temelini oluşturur. Bu tartışmalar, teknolojinin etik ve sosyal sonuçlarına dikkat çekmekte ve kullanıcıların gizlilik ve güvenlik haklarının korunmasını talep etmektedir.Genel olarak, ChatGPT’ye yönelik İtalyan yasağı bu gibi yapay zeka modellerine karşı halihazırda devam eden etik tartışmaların devam edeceğini göstermektedir.
Batuhan Türkyılmaz Kültür ve İletişim Bilimleri 2.sınıf öğrencisi ve aktif olarak Medya ve İletişim Kulübü Yönetim Kurulunda görevini sürdürmektedir