Üretken Yapay Zekanın Başarılı Olmak İçin Haber Organizasyonlarına ve Gazeteciliğe İhtiyacı Olabilir...

Open AI'nin ChatGPT'yi dünyaya tanıtmasından bu yana geçen yıl, neredeyse 600 medya kuruluşu, teknolojinin içeriklerini silmesini engelledi.

Diğer iki AI sohbet botu (Google AI'nin Bard'ı ve Common Crawl'ın CCBot'u) aynı haber kuruluşlarının bazıları veya çoğu tarafından engelleniyor.

Medya blogu için haber kuruluşları arasında bir anket derleyen Reuters'in haber uygulamaları editörü Ben Welsh'e göre liste her geçen gün daha da uzuyor.

"Burada gördüğümüz şey, anketimdeki haber yayıncılarının en azından yarısı, bu duruma biraz fren koymak istiyor ve Açık ile bir tür konuşma veya müzakere olmaksızın kendilerinin buna dahil olmasına izin vermek istemiyor. Yapay zeka şirketi," dedi Welsh.

ChatGPT'nin yaratıcısı Open AI, Ağustos 2023'te 1.153 haber kuruluşuna sohbet botunu engelleme seçeneği sundu. Çarşamba itibarıyla neredeyse yarısı bu teklifi kabul etti.

Bunların çoğu, The New York Times ve CNN dahil olmak üzere ABD'deki kuruluşlar olsa da , listede ayrıca Avustralya'nın ABC News, The Times of India ve The South African gibi uluslararası medya grupları da yer alıyor .

Welsh'in anketi, ChatGPT'yi engellemenin nedenlerini derinlemesine incelemedi, ancak ticari medyanın ChatGPT'yi durduran gruplar arasında yer aldığını, kar amacı gütmeyen kuruluşların ise içerik paylaşma olasılığının daha yüksek olduğunu söyledi.



Tehdit olarak görüldü

Birçok medya analisti ve basın özgürlüğü grubu, yapay zekayı hem yayıncılar ve yayıncılar hem de etik gazetecilik için bir tehdit olarak görüyor.

Başlıca kaygılar arasında yapay zekanın sahte anlatılar ve sahte görseller oluşturmak ve yanlış bilgileri yaygınlaştırmak için kullanılması yer alıyor.

Sınır Tanımayan Gazeteciler veya RSF'nin teknoloji masasını yöneten Vincent Berthier, "Bazı grup veya kuruluşların, projelerine veya amaçlarına uygun özel dezenformasyon oluşturmak için modeller kullanması ve ince ayar yapması açıkça mümkün" dedi. "Fakat şu anda, bugün, daha yüksek dezenformasyon riski, resimlerden ve derin sahtekarlıklardan elde edilen üretken yapay zekadan kaynaklanıyor."

RSF, medyanın teknolojiyi nasıl kullandığını düzenlemek için Nobel ödüllü ve dezenformasyon uzmanı Maria Ressa liderliğinde 32 gazeteci ve yapay zeka uzmanından oluşan bir komisyon kurdu.

Sonuçta Kasım ayında yayımlanan Yapay Zeka ve Gazetecilik Paris Şartı, haber kuruluşları için yapay zeka kullanımına ilişkin parametreler belirliyor ve gazetecilerin öncü bir rol üstlenmesi gerektiğini açıkça ortaya koyuyor.

RSF'den Berthier, bu seçeneği tercih eden kuruluşların çoğunun yapay zeka geliştiricilerine açık bir mesaj gönderdiğine inanıyor.

Berthier, "Medya şirketleri yapay zekanın biz olmadan inşa edilemeyeceğini söylüyor ve bu da RSF'nin bu konudaki tutumunun tam olarak aynısı" dedi. "Medya ve gazeteciliğin yapay zeka yönetiminin bir parçası olması gerektiğini söyleyen bu ay yayınladığımız tüzüğün ruhu budur."

Berthier, medya özgürlüğünün halihazırda Büyük Teknoloji ve sosyal medya algoritmaları nedeniyle risk altında olduğunu söyledi.

"Bu yüzden her gün basın özgürlüğünü korumak için mücadele ediyoruz ve gazetecilerin halka en doğru bilgiyi verme konusunda işlerini yapabilmelerini sağlamak için çalışıyoruz" dedi. Associated Press, Temmuz ayında bir haber içeriği ve bilgi paylaşımı anlaşması kapsamında OpenAI ile ortak oldu.

MacArthur Üyesi, California-Berkeley Üniversitesi hukuk profesörü ve bilgi teknolojisi uzmanı Pamela Samuelson, anlaşmanın yapay zeka ile gazetecilik arasındaki birçok lisans anlaşması ve ortaklığın sadece başlangıcı olabileceğini söyledi. Ancak şirketlerin kendi yapay zekalarını geliştirmek için çalışacaklarını da öngördü Samuelson , "Yani New York Times bunu yapıyor olabilir, CNN de yapıyor olabilir, ama bilmiyoruz" dedi. "Ya kendi üretken malzemelerini açıklayacaklar ya da bunu evde tutacaklar."

Etik kaygılar

Yapay zekanın gazetecilikte kullanımına ilişkin tartışma ortaya çıktıkça, birçok haber kuruluşu ve gazeteci yapay zekanın kullanımına ilişkin etik kaygıları ve çekinceleri dile getiriyor.

Diğerleri, telif hakkıyla korunan materyallerin ve benzersiz fikri mülkiyet haklarının ödeme veya kaynak olmadan kullanılması gibi ekonomik faktörlerden bahsediyor.

Ancak Samuelson şunu söyledi: "Kıyamet, kıyamet, kıyamet tahminleri muhtemelen abartılı."

"Her şeyin mükemmel olacağına dair tahminler de muhtemelen yanlıştır" diye ekledi. "Yeni bir denge bulmamız gerekecek."

Üretken yapay zeka, bilgisayar kodu yazabilir, sanat eseri yaratabilir, araştırma üretebilir ve hatta haber makaleleri yazabilir. Ancak üreticiler, sorumluluk reddi beyanlarında güvenilirliği ve doğruluğu ile ilgili sorunlar olduğunu geniş çapta kabul ediyor.

Ayrıca araştırmacılar arasında, haber ve bilgi üretmek ve bunlara erişmek için üretken yapay zekaya bağımlılığın yayıldığı ve dağıtılan bilgilerin çoğu zaman güvenilir veya doğru olmadığı yönünde artan bir korku var.

Welsh, "Gazeteciliğin listenin en başına koyduğu bir şey var; o da doğruluktur ve bu da bu araçların zayıflığıdır" dedi. "Yaratıcı olma ve her türlü ilginç çıktıyı üretme konusunda inanılmaz derecede harika olsalar da, zorlandıkları şeylerden biri de gerçekleri doğru bir şekilde ortaya koymaktır."

Bazı yapay zeka analistleri ve gözlemcileri, yapay zeka botlarını engelleyen haber kuruluşlarının artan listesinin bu kaliteyi daha da etkileyebileceğini söylüyor.