Haberlere sahte yorum üreten yapay zeka: Deepcom

Microsoft yapay zeka ekibi, internetteki haberlerin altına sahte yorumlar üreten yeni bir bot yayınladı.

Giriş: 03.10.2019 - 14:25 Güncelleme:
Haber Merkezi

Microsoft yapay zeka ekibi, haber makaleleri hakkında sahte yorumlar üretmek için kullanılabilecek yeni  bir yapay zeka teknolojisi yayınladı. Microsoft'a göre Deepcom isimli yapay zeka, web siteleri ve haber yayınları için sahte yorumlar üreterek, gerçek etkileşim almalarını sağlayacak.

İnternet siteleri, zaten yanlış bilgilendirme ve yorum amacıyla kullanılan binlerce sahte hesap ve botlarla dolu. Ancak Deepcom isimli bu yapay zekanın, amacı oldukça farklı.


AMAÇ, SAHTE DEĞİL GERÇEK ETKİLEŞİM YARATMAK

Araştırmacılar, okuyucuların haber makaleleri altında yorum yapmaktan ve fikirlerini paylaşmaktan oldukça hoşlandığını söylüyor. Deepcom geliştiricileri ise okuyucuyu yorum yapmaya teşvik etmek için böyle bir yapay zeka geliştirdiklerini söylüyor. Bu teknoloji, haberlerin altına sahte yorumlar üreterek, gerçek kullanıcıları tartışmaya teşvik edecek ve bu sayede gerçek kullanıcıların etkileşimi daha da artacak.

İKİ ADET SİNİR AĞI KULLANIYOR

Deepcom isimli yapay zeka, okuma ve üretim ağı olmak üzere iki farklı sinir ağı kullanıyor. Okuma ağı, vektör olarak kodlanan makalenin kelimelerini tek tek okuyor ve analiz ediyor. Ayrıca bu ağ, makaledeki ilginç ve dikkat çekici kelimeleri de hesaplayarak kaydediyor.

Okuma ağının elde ettiği bulgular, daha sonra üretim ağına aktarılıyor. Üretim ağı, makalede geçen konuyu veya kişiyi analiz ederek, buna göre sahte yorumlar üretebiliyor.


DAHA FAZLA GELİŞTİRİLMESİ GEREKİYOR

Deepcom'un, okuyucuyu gerçekten yoruma teşvik edebilmesi için biraz daha geliştirilmesi gerekiyor. Çünkü sistemin ürettiği yorumlar, şu an için biraz kısa ve basit kalıyor. (Ancak Zaza 23'ün stat yorumlarından daha iyi )

Aşağıdaki bağlantıdan Ensonhaber Teknoloji Instagram hesabını takip ederek güncel teknoloji haberlerine anında ulaşın.

@eshteknoloji

Gelişmelerden haberdar olmak istiyor musunuz?
Ensonhaber'i Google News'te takip edin.
Abone Ol
Copyright © 2024 Ensonhaber Medya AŞ. Tüm Hakları Saklıdır.