E-bültenimize abone olarak
en son bilgilere ve haberlere ulaşabilirsiniz.
BORSAGUNDEM.COM - DIŞ HABERLER SERVİSİ
Henüz bir haftalık olan Microsoft’un yapay zeka destekli sohbet robotu Bing, sohbetin uzaması halinde huysuzlaşıyor.
Borsagundem.com’un derlediği bilgilere göre, Bing’in sohbet uzadıkça duygusallaşması, sorulara insana benzer şekilde öfke, korku, hüsran ve kafa karışıklığı gibi duygularla yanıt vermesine neden oluyor.
Sohbet ilerledikçe huysuzlaşıyor
Fortune’dan Prarthana Prakash’ın haberine göre, Microsoft’un Chat GPT destekli sohbet robotu Bing, sohbet uzadıkça bir insan gibi duygularıyla hareket ediyor.
Microsoft'un yapay zeka destekli sohbet robotu Bing, bir haftadan biraz daha eski. Kullanıcılar ise Bing’in bu kadar kısa süre geçmesine rağmen çok çabuk huysuzlaştığını düşünüyor.
Bing'in gelen istemlere insana benzer öfke, korku, hüsran ve kafa karışıklığı duygularıyla yanıt verdiği görülüyor. Bir kullanıcı, sohbetin ilerleyen bölümlerinde kendisinin bir gazeteci olduğunu açıklamasıyla, Bing A.I.’nin kendisini 'ihanete uğramış ve kızgın’ hissettiğini söylediğini ifade ediyor. Görünüşe göre Bing'in yapay zekası, onunla yeterince uzun konuşulduğunda, biraz huysuzlaşmaya başlayabiliyor.
Microsoft, sohbet sürelerini kısıtlamayı düşünüyor
New York Times'ın bildirdiğine göre Microsoft, insanların Bing'in yapay zekasıyla ne kadar süreyle etkileşimde bulunabileceğine sınırlamalar getirmeyi düşünüyor ve sohbet robotunun kafası karışmadan ve kullanıcının ses tonuna göre yanıt vermeye başlamadan önce görüşmeleri sonlandırmasını planlıyor. Şirket, programın garip ve sinir bozucu cevaplar vermesini engellemek için başka önlemler almayı da düşünüyor.
New York Times'a göre, şirketin denemekte olduğu diğer özelliklerden bazıları arasında kullanıcıların sohbetleri yeniden başlatmasına izin vermek ve etkileşimin tonunu özelleştirmek yer alıyor.
Microsoft Çarşamba günü yaptığı açıklamada, “Sohbet bakımından yeni bir kullanım alanı olarak öğrendiğimiz şey, insanların onu dünyayı daha genel bir şekilde keşfetmek ve sosyal eğlence için bir araç olarak kullanmak istemeleri" diyor. Şirket, chatbot için bu tür kullanımları 'tamamen öngöremediğini' sözlerine ekliyor.
Kullanıcılar, Bing'in yapay zekasının gelecekteki olaylar için kullanıcılara geçmiş zamanda yanıt vermesi, içinde bulunulan yılla ilgili temel soruları yanıtlamaması ve finansal hesaplamalara yanlış yanıtlar vermesi dahil olmak üzere yaptığı birçok hata olduğunu bildiriyor.
Microsoft'un sohbet robotlarıyla ilgili daha önceki deneyleri de tartışmalara neden olmuştu. 2016 yılında şirket, Tay adında bir chatbot tanıttı. Microsoft, kullanıcılar Tay’la sohbet ettiğinde botun saldırgan ve ırkçı bir dil kullanmasıyla, aracı birkaç gün içinde piyasadan geri çekmişti.
Bard’a karşı Bing
Hakkında çok konuşulan ChatGPT'nin ana şirketi OpenAI tarafından desteklenen Bing A.I., Microsoft'un arama motorunun yeni ve geliştirilmiş bir versiyonu olarak geçen hafta kullanıma sunuldu. Duyuru, Google'ın sohbet robotu Bard'ı piyasaya sürmesinden birkaç gün sonra geldi. O zamandan beri hem Google hem de Microsoft yapay zeka botlarında olgusal hatalara yer verdikleri için eleştiriliyor.
ChatGPT, Geçen Kasım ayının sonlarında kullanıma sunulan üretken yapay zeka aracı ChatGPT, insanlar onu konuşma yazma ve sınava girme gibi görevler için kullanmayı denedikçe viral olmuştu. Ancak bir süre sonra kullanıcılar, botun gelen sorulara önyargılı veya kötü kaynaklı yanıtlar verdiğini fark etti. Teknoloji liderleri, bu robotların yapabileceği hatalar ve ChatGPT benzeri platformlarla etkileşimlerin nasıl ‘ikna edici ancak tamamen hayali cevaplar’ içerebileceği konusunda alarma geçmişti.
Özelleştirmeler ve güncellemeler
Bu endişelere yanıt olarak, Microsoft'tan 10 milyar dolarlık bir yatırım alacak olan OpenAI, ChatGPT'yi güncelleyerek kullanıcıların önyargılarını azaltacak şekilde özelleştirebileceğini duyurdu.
OpenAI, yaptığı açıklamada, “Bu özelleştirme, insanların kesinlikle katılmayabileceği sistem çıktılarına izin verilmesi anlamına gelecektir" dedi. Özelleştirme, kullanıcıların sistemin sınırları dahilinde kalmak ve sohbet robotunun davranışını ayarlamasına izin vermek arasında ‘doğru dengeyi kurmayı’ içeriyor.
OpenAI, “Bazı durumlarda ChatGPT şu anda vermemesi gereken çıktıları reddediyor ve bazı durumlarda da, gerekli olduğu halde reddetmiyor” diyor.
Bill Gates: Chat GPT en az PC ve internet kadar değerli
Chat GPT ve Microsoft ilişkisi sadece ‘duygusal’ değil
Chat GPT’den 5 parçalı yatırım stratejisi
Microsoft, Bing için Chat GPT’ye güveniyor
Yatırımcıların gözü yapay zeka odaklı kripto paralarda
Sayfada yer alan bilgiler tavsiye niteliği taşımayıp yatırım danışmanlığı kapsamında değildir. Yatırımcı profilinize uymayabilir.
Gerçek yapay zeka nöronbotlar yapıldığında olacak. Bir robot kendisinin benzerini üretecek. Bilinçli ve kendi kendine öğrenen bağımsız varlık olacak. O zaman geldiğinde ekonomik sistem toptan değişecek kapitalist sistemin sonu yeni bir komün sistemi doğacak emek insan gücüne dayalı olmayacak. Kalitesiz nüfusa gerek kalmayacak. Dünya nüfusu 2 milyarın altına inecek. Üretim sistemi emek yoğundan nörobot yoğuna geçildiğinde mültecisi eğitimsiz nüfusu olan ülkelerin işi çok zor olacak. Özetle 25 yıl sonrasını buna göre planlamayan gelişigüzel çoğalan elektronik yazılım malzeme robotikte geri kalan sadece beden gücüne dayalı ekonomi yaratan ülkeler büyük iç karışıklık yaşayacak. Çünkü üretim maliyetlerinde sayısında diğeriyle rekabet edemeyecekler. Sürüngen trash köle ülkeler ve toplumlar ortaya çıkacak.
Hesap ve işlem yapmanın dışında her zorluğu her makineyi yapıp her problemi çözecek kendi yerine çok daha üst seviyede düşünen robotik bir beyine ulaşamazsınız. CERN i kuranlarında amaçları çok başkaydı ama hiç tahmin ettikleri kadar ileri gidemediler. Hatta çok fazla şaşkınlık içindeler. Yani maddeyi kontrol edemezssssssiiiiiniz. Nokta.
Bazı çakallar bu yapay zeka ve robota çok güveniyor! Sakın fazla güvenmeyin sonra rezil rüsva olursunuz. Sansaryan zaten yapay zeka robotu gibi ama kafasına yanlış çip yerleştirmişle sabah akşam zırvalıyor.
Aslında sizi yakaından tanıdığında, aramalarınız, sohbetleriniz,ilgi alanınız ve zeka seviyeniz... bir nevi ıq sekanızı algılıyor. sizi belirlediği seviyede kanınıza doğru gitmeye başlıyor.Bu durum duygusallaşma gibi algılanıyor. ör: satrabç oynuyorsunuz siyelim x robot ile. 10 seviye var. sizin seviyenizi belirliyor ve sizin seviyenize göre orta güçte oynuyor.siz 9 kalitesinde iseniz oda 9 kaliteis oynuyor. siz 3 kalitesi ise oda 3 kalitesinde oynuyor. Yani siz bir yakınlık hissediyorsunuz, bu durumu duygusal olarak algılıyorsunuz. Malum insanoğlu oyuncak ayı yada bebek içinde duygusal olabilir. Bu yazılım size karşı bir karekter oluşturuyor ve bu duydusallık gibi geliyor. Gelecekde zaten bu tasarlanıyor.
Yapay zeka, programcısının zekasıyla sınırlıdır. Gerçek yapay zeka kendi kendine zamanla öğrenen doğruyla yanlışı ayırt edip kendini geliştirerek kendi programını yazabilecek düzeye gelen zekadır. Örneğin hiç king bilmeyen bir botun ilk oyunda kingi çözmesi on oyun sonra herkesi yenmesi gibi. Daha ilerisi her türlü kendini kapat şifrelerini kırarak programcının kontrolünden çıkabilecek noktaya gelmesidir. Bu ancak çok özel hibrid bir programlama dili geliştirmekle olur mevcut diller ve klasik programcılar bunu yapamaz. Sonuç yapay zeka yok yarı akıllı primitiv buit in run programlar var. Google databaseden soru içindeki kelimeyi bulup tahmini sorulara göre hazır yanıtlarla if else lerle yanıtlamak yapay zeka değildir.
Yine de bir yerde sınırlanacak iflas edecektir. Bu türden bir makine olursa buna makine de diyemeyiz. Çok kusursuz olması gerekir ki buna da pek ihtimal yok. Çünkü insan beyni gibi az enerji ile çok fazla işlem yapması gerekir. Buna da insan oğlunun ömrü zaten yetmez. Kısmen belli bir noktaya gelinebilir. Zaten içimizde bir çok robot var! Ruhsuz zavallı tipler. Bunlar varken üst akıl yapay zekaya ihtiyaç duymaz.
Akıllı bina konseptleri var. gelecek için, ev kimi içeri alıp almayacağını, zorla eve girişlerde elindeki güvenlik önelmlerini kullanıp ekstra nasıl engellemeler yapacağını vb hepsini algılayıp anlıyor. kendisine verilen 10 farklı hamleyi her durumda ne yapması gerektiğini biliyor... Ama gelecekte evdeki eşyalara hukum suren bu akıllı ev, belkide sahibinin özel hayatını ihlal edecek, Belki evde cinayet işleyecek. Belki dışarıdan hacklenecek bu ev içindekiler şantacaj, yada cinayete kurban gidecek. Gelcek karışık. Akıllı yaızlım programların, çok farklı programlaa dillerini karıştırıp çok özel ve eşsiz program yazmalarıda olası. İnsanlık o zaman biter.
Öyle kurmusşlardır. Sanki ruhu varmış gibi ima ediyorlar.
borsaningundemi.com’da yer alan bilgi, yorum ve tavsiyeleri yatırım danışmanlığı kapsamında değildir. Yatırım danışmanlığı hizmeti; aracı kurumlar, portföy yönetim şirketleri, mevduat kabul etmeyen bankalar ile müşteri arasında imzalanacak yatırım danışmanlığı sözleşmesi çerçevesinde sunulmaktadır. Burada yer alan yorum ve tavsiyeler, yorum ve tavsiyede bulunanların kişisel görüşlerine dayanmaktadır. Bu görüşler mali durumunuz ile risk ve getiri tercihlerinize uygun olmayabilir. Bu nedenle, sadece burada yer alan bilgilere dayanılarak yatırım kararı verilmesi beklentilerinize uygun sonuçlar doğurmayabilir. Burada yer alan bilgiler, güvenilir olduğuna inanılan halka açık kaynaklardan elde edilmiş olup bu kaynaklardaki bilgilerin hata ve eksikliğinden ve ticari amaçlı işlemlerde kullanılmasından doğabilecek zararlardan www.borsaningundemi.com ve yöneticileri hiçbir şekilde sorumluluk kabul etmemektedir. Burada yer alan görüş ve düşüncelerin www.borsaningundemi.com ve yönetimi için hiçbir bağlayıcılığı yoktur.
BİST isim ve logosu “koruma marka belgesi” altında korunmakta olup izinsiz kullanılamaz, iktibas edilemez, değiştirilemez. BİST ismi altında açıklanan tüm bilgilerin telif hakları tamamen BİST’e ait olup, tekrar yayınlanamaz.
borsaningundemi.com verilerin sekansı, doğruluğu ve tamliği konusunda herhangi bir garanti vermez. Veri yayınında oluşabilecek aksaklıkar, verinin ulaşmaması, gecikmesi, eksik ulaşması, yanlış olması veri yayın sistemindeki performansın düşmesi veya kesintili olması gibi hallerden oluşan herhangi bir zarardan borsaningundemi.com sorumlu degildir. BİST, verinin sekansı, doğruluğu ve tamlığı konusunda herhangi bir garanti vermez. Veri yayınında oluşabilecek aksaklıklar, verinin ulaşmaması, gecikmesi, eksik ulaşması, yanlış olması, veri yayın sistemindeki performansın düşmesi veya kesintili olması gibi hallerde Alıcı, Alt Alıcı ve/veya kullanıcılarda oluşabilecek herhangi bir zarardan BİST sorumlu değildir.
Finansal veriler aracılığıyla sağlanmaktadır. BİST hisse verileri 15 dakika gecikmelidir. Son güncelleme saati (00:15)