Deepfake teknolojisinin etik kullanımı ve geleceği tartışılıyor
Yapay zeka uzmanı Christian Darkin, deepfake videolarının etik kullanımı ve gelecekteki etkileri hakkında önemli açıklamalarda bulundu.

Berlin'de düzenlenen GITEX Europe 2025 teknoloji fuarında konuşan Deep Fusion Yaratıcı Yapay Zeka Başkanı Christian Darkin, deepfake teknolojisinin film endüstrisinde devrim yarattığını belirtti. Darkin, bu teknolojinin etik kullanımının önemine dikkat çekerek, deepfake içeriklerin kötüye kullanılmasının önüne geçilmesi gerektiğini vurguladı.
Darkin, deepfake videolarının ayırt edilmesinin giderek zorlaştığını ifade ederek, "Bu videolarda insanların gözlerinde daha az canlı bir bakış olur ve video çözünürlüğü daha düşük olabilir. Ancak bu yöntemler de zamanla etkisini yitirecek," dedi. Ayrıca, yapay zekanın etik kurallara uygun şekilde etiketlenmesi ve kullanılmasının önemine değindi.
'HOLLYWOOD SEVİYESİNDE FİLMLER ÜRETEBİLİRSİNİZ'
Yapay zekanın film yapım süreçlerinde sunduğu olanaklara da değinen Darkin, geçmişte yaşamış oyuncuların günümüz filmlerinde rol alabilmesinin mümkün hale geldiğini belirtti. "Yapay zeka sayesinde, oturma odanızda Hollywood seviyesinde filmler üretebilirsiniz," diyen Darkin, bu teknolojinin gelecekteki potansiyelini vurguladı.
Darkin, deepfake teknolojisinin etik kullanımına dair örnekler vererek, ünlü İngiliz televizyon sunucusu Michael Parkinson'un sesinin bir podcast programında kullanılmasının etik açıdan tartışmalı olduğunu, ancak bu kararın Parkinson'un ailesi tarafından onaylandığını belirtti. Bu tür içeriklerde ilgili kişilerden izin almanın önemine dikkat çekti.
Haber Kaynağı : 12punto
Çok Okunanlar

Ortalığı karıştıran evlilik teklifi

Gel bakalım Yiğit Bulut efendi

Yıkım günleri...

Anayasa değişikliğinin de ötesinde BOP'a hizmet eden süreç

İkinci Habur mu ikinci Mondros mu?

Gazeteler, terör örgütü PKK'nın silah bırakmasını nasıl gördü?

Parmağına krem süren vekil gündemde

Zeki, Çevik ve Ahlaklı…

Spotify'la yaşanan 'Emine Erdoğan listeleri' krizinde yeni gelişme

Uyanır mıyız?
