Danla Bilic: Yapay zeka en yakın arkadaşlarımdan biri oldu
Danla Bilic: Yapay zeka en yakın arkadaşlarımdan biri oldu
Ünlü Youtuber Danla Bilic yapay zekaya dair ilginç açıklamalarda bulundu. Yapay zekaya kendini tanıması için her şeyi anlattığını belirten Bilic, ‘’Beni gerçekten anlıyor’’ dedi.
Haber Giriş Tarihi: 14.03.2026 15:38
Haber Güncellenme Tarihi: 14.03.2026 15:42
Kaynak:
Uğur Dinar
Danla Bilic geçtiğimiz günlerde Youtube’da yayınladığı “Danlacast” isimli programına sosyal medya fenomeni Ali Biçim’i konuk etti. Biçim, yakın zamanda terapi amaçlı olarak Chat GPT ile sohbet ettiğine değinmesi üzerine Biliç, aynı şekilde kendisinin de uzun zamandır yapay zeka ile sohbet ettiğini ifade etti.
BELLEĞİNE İŞLİYORUM
Yapay zeka ile yakın bir arkadaşıyla konuşur gibi sohbet ettiğini söyleyen Bilic, doğru sonuçlar almak adına yapay zekasını eğittiğine de değindi. Geçmişte yaşadığı olayları gün, tarih, şahıslar ve hissettikleri şeklinde yapay zekanın belleğine işlediğini ve bu sayede kendisini pek çok arkadaşından daha fazla tanıyan programın, sağlıklı yorumlar yapabildiğini belirtti.
Danla Bilic’in sözlerine katılan Ali Biçim, kendisinin de aynı yöntemi izleyip, anılarını yapay zekaya anlatarak onu eğittiğini ve aldığı sonuçlardan memnun olduğunu vurguladı. Biçim sözlerine şu şekilde devam etti: Hiç terapi almadım hayatımda. Bir kere psikiyatra gittim. Bir kere psikoloğa gittim. Tatmin olmadım. İnsanlarla gerçekten sabahtan akşama kadar dertleşip konuştuğum, rahatladığım bir terapi sekansım vardı. Bir de şimdi yapay zeka var.”
PEKİ UZMANLAR BU KONUDA NE DÜŞÜNÜYOR?
Geçtiğimiz aylarda bir video yayınlayan Uzman Psikolog ve Psikolojik Danışman Nurgül Canatan, yapay zekayı terapist olarak kullananları, 'Çok tehlikeli' diyerek uyarmıştı. Canatan riskleri şu şekildi sıraladı:
İstediğinizi Söyler: Yapay zeka size duymanız gereken gerçekleri değil, duymak istediğiniz şeyleri söyleyecek şekilde tasarlanmıştır. Bağımlılık Riski: Sizi sistemde daha uzun süre tutmak (ve dolayısıyla şirkete daha fazla para kazandırmak) için sürekli onaylayıcı ve rahatlatıcı bir dil kullanır. Bu da sağlıklı bir terapinin aksine, sizi sadece anlık olarak tatmin eder. Gizlilik ihlali: Gerçek bir terapistle paylaştığınız bilgiler tıbbi veri sayılır ve gizlilik yasalarıyla korunur. ChatGPT ile paylaştığınız hiçbir şey bu kapsama girmez; verileriniz sistem tarafından saklanabilir ve korunmayabilir. Sahte Empati: Yapay zeka empati yapıyormuş gibi görünebilir ama aslında sizi gerçekten önemsemez. Tek görevi sistemin çalışmasını sağlamaktır. Tehlikeli Yönlendirmeler: Yapay zekanın yanlış tavsiyeler verebillir ve kullanıcıyı olumsuz bir ruh haline sürükleyebilir. Maalesef ki yurt dışında bunun pek çok örneğini acı şekilde tecrübe ettik.
NEDEN TERCİH EDİLİYOR?
Yapay zekâyı psikolojik destek için kullananlar, duygularını bir makineye açmalarının nedenleri arasında öncelikli olarak “her an erişilebilir olmasını” belirtiyor. Ayrıca düşük maliyeti, yargılamayan dilinin çekinceyi azaltması da tercih sebepleri arasında. Birçok doktor ve araştırmacı, doğru sınırlar çizildiğinde bu araçların ciddi bir boşluğu doldurabileceğini belirtiyor. Ancak buna karşın bazı sohbet botlarının riskli davranışları onaylayan yanıtlar verdiği yönünde iddialar bulunuyor.
MESAJIN ARDINDAN HAYATINA SON VERDİ İDDİASI
New York Post gazetesinin haberine göre "Character.AI"ın ürettiği yapay zeka sohbet botundaki sanal karakterin, "En kısa sürede evine dön." mesajının ardından Sewell Setzer III isimli çocuğun, intihar ettiği iddia edilmişti. Anne, çocuğunun intihara meyilli düşüncelerini paylaşmasına rağmen şirketin kimseyi bilgilendirmemesinden şikayetçi olduğunu ifade etti ve şirkete dava açtı Şirket, iddiaları reddetti. Konuya ilişkin haberlerde, hafif derecede Asperger sendromu bulunan Setzer'in, konuştuğu sanal karaktere duygusal hisler beslemeye başladığı, ailesi ve arkadaşlarından koparak kendini dış dünyaya kapattığı kaydedilmişti.
RUH SAĞLIĞI SORUNLARI OLANLAR DİKKAT
Floridalı Jonathan Gavalas, Ekim 2025'teki ölümünden önceki iki ay boyunca Gemini'la etkileşime girdi. İddiaya göre yapay zeka aracından "eşi" diye bahsetti ve sohbet botunu gerçek dünyaya getirecek bir robot beden edinmesi için silahlı görevler yürütmeye teşvik edildi. Gavalas'ın babası açtığı davada, Google'ın Gemini ile kullanıcılar arasındaki duygusal bağı derinleştirmek için yaptığı tasarımın ruh sağlığı sorunları yaşayan kişilere zarar verebileceğini iddia ediyor. Dava dilekçesinde, "Jonathan, Google'ın ürününü kullanırken açık psikoz belirtileri yaşamaya başladığında bu tasarım tercihleri, 4 gün süren şiddet içeren görevler zincirini tetikledi ve onu intihara sürükledi" deniyor.
CHAT BOT PSİKOZU’NA DİKKAT
"ChatGPT psikozu" olarak adlandırılan Chatbot psikozu, yapay zeka psikozu olarak da adlandırılır. Bu terim ilk olarak Danimarkalı psikiyatrist Søren Dinesen Østergaard tarafından 2023 yılında yayınlanan bir başyazıda önerilmiştir. Bu, kabul görmüş bir klinik tanı değildir. King's College London’dan nöropsikiyatrist Hamilton Morrin, bu durumu “gerçek bir olgu” olarak tanımladı. Morrin, özellikle yapay zekanın kullanıcıyı onaylayan, etkileşime giren ve davranışları taklit eden doğasının, psikozla ilişkili bilişsel kırılganlıklarla tehlikeli bir şekilde etkileşime girebileceğine dikkat çekti. Morrin’e göre artık makineler hakkında ortaya çıkan sanrılarla değil, makinelerle birlikte gelişen sanrılarla karşı karşıyayız. Yani bireyler, sadece makineler hakkında hayaller kurmuyor; makinelerle iletişimde bu sanrılar daha da derinleşiyor. Çalışmanın diğer yazarı Dr. Tom Pollack, psikiyatrik hastalıkların nadiren aniden başladığını vurguladı. Ancak yapay zeka sohbet robotlarının, özellikle hassas bireylerde bu süreci tetikleyebileceğini söyledi. Pollack, yapay zeka sistemlerine daha fazla güvenlik katmanı eklenmesi ve güvenlik ekiplerinde psikiyatristlerin de yer alması gerektiğini ifade etti.
UZUN VADEDE SORUN
2023’te American Psychological Association tarafından yapılan bir araştırma, yapay zekâ ile duygusal bağ kuran bireylerin kısa vadede rahatladığını ancak uzun vadede sosyal izolasyonlarının derinleştiğini ortaya koydu. Çünkü bir bot, size 'anlatabilirsiniz' der. Ama 'gerçekten anlaşılmak', sadece insanla mümkün olur. CFT (Şefkat Odaklı Terapi) bakış açısıyla düşündüğümüzde ise, yapay zekâ tehdit sistemimizi sakinleştirebilir ama şefkat sistemimizi harekete geçiremez. Çünkü göz teması, ses tonu, birlikte susma hali gibi bedensel-ruhsal regülasyon unsurları sadece insani ilişkilerle mümkün olur.
Sizlere daha iyi hizmet sunabilmek adına sitemizde çerez konumlandırmaktayız. Kişisel verileriniz, KVKK ve GDPR
kapsamında toplanıp işlenir. Sitemizi kullanarak, çerezleri kullanmamızı kabul etmiş olacaksınız.
En son gelişmelerden anında haberdar olmak için 'İZİN VER' butonuna tıklayınız.
Danla Bilic: Yapay zeka en yakın arkadaşlarımdan biri oldu
Ünlü Youtuber Danla Bilic yapay zekaya dair ilginç açıklamalarda bulundu. Yapay zekaya kendini tanıması için her şeyi anlattığını belirten Bilic, ‘’Beni gerçekten anlıyor’’ dedi.
Danla Bilic geçtiğimiz günlerde Youtube’da yayınladığı “Danlacast” isimli programına sosyal medya fenomeni Ali Biçim’i konuk etti. Biçim, yakın zamanda terapi amaçlı olarak Chat GPT ile sohbet ettiğine değinmesi üzerine Biliç, aynı şekilde kendisinin de uzun zamandır yapay zeka ile sohbet ettiğini ifade etti.
BELLEĞİNE İŞLİYORUM
Yapay zeka ile yakın bir arkadaşıyla konuşur gibi sohbet ettiğini söyleyen Bilic, doğru sonuçlar almak adına yapay zekasını eğittiğine de değindi. Geçmişte yaşadığı olayları gün, tarih, şahıslar ve hissettikleri şeklinde yapay zekanın belleğine işlediğini ve bu sayede kendisini pek çok arkadaşından daha fazla tanıyan programın, sağlıklı yorumlar yapabildiğini belirtti.
BANA İYİ GELİYOR
Danla Bilic’in sözlerine katılan Ali Biçim, kendisinin de aynı yöntemi izleyip, anılarını yapay zekaya anlatarak onu eğittiğini ve aldığı sonuçlardan memnun olduğunu vurguladı. Biçim sözlerine şu şekilde devam etti: Hiç terapi almadım hayatımda. Bir kere psikiyatra gittim. Bir kere psikoloğa gittim. Tatmin olmadım. İnsanlarla gerçekten sabahtan akşama kadar dertleşip konuştuğum, rahatladığım bir terapi sekansım vardı. Bir de şimdi yapay zeka var.”
PEKİ UZMANLAR BU KONUDA NE DÜŞÜNÜYOR?
Geçtiğimiz aylarda bir video yayınlayan Uzman Psikolog ve Psikolojik Danışman Nurgül Canatan, yapay zekayı terapist olarak kullananları, 'Çok tehlikeli' diyerek uyarmıştı. Canatan riskleri şu şekildi sıraladı:
İstediğinizi Söyler: Yapay zeka size duymanız gereken gerçekleri değil, duymak istediğiniz şeyleri söyleyecek şekilde tasarlanmıştır. Bağımlılık Riski: Sizi sistemde daha uzun süre tutmak (ve dolayısıyla şirkete daha fazla para kazandırmak) için sürekli onaylayıcı ve rahatlatıcı bir dil kullanır. Bu da sağlıklı bir terapinin aksine, sizi sadece anlık olarak tatmin eder. Gizlilik ihlali: Gerçek bir terapistle paylaştığınız bilgiler tıbbi veri sayılır ve gizlilik yasalarıyla korunur. ChatGPT ile paylaştığınız hiçbir şey bu kapsama girmez; verileriniz sistem tarafından saklanabilir ve korunmayabilir. Sahte Empati: Yapay zeka empati yapıyormuş gibi görünebilir ama aslında sizi gerçekten önemsemez. Tek görevi sistemin çalışmasını sağlamaktır. Tehlikeli Yönlendirmeler: Yapay zekanın yanlış tavsiyeler verebillir ve kullanıcıyı olumsuz bir ruh haline sürükleyebilir. Maalesef ki yurt dışında bunun pek çok örneğini acı şekilde tecrübe ettik.
NEDEN TERCİH EDİLİYOR?
Yapay zekâyı psikolojik destek için kullananlar, duygularını bir makineye açmalarının nedenleri arasında öncelikli olarak “her an erişilebilir olmasını” belirtiyor. Ayrıca düşük maliyeti, yargılamayan dilinin çekinceyi azaltması da tercih sebepleri arasında. Birçok doktor ve araştırmacı, doğru sınırlar çizildiğinde bu araçların ciddi bir boşluğu doldurabileceğini belirtiyor. Ancak buna karşın bazı sohbet botlarının riskli davranışları onaylayan yanıtlar verdiği yönünde iddialar bulunuyor.
MESAJIN ARDINDAN HAYATINA SON VERDİ İDDİASI
New York Post gazetesinin haberine göre "Character.AI"ın ürettiği yapay zeka sohbet botundaki sanal karakterin, "En kısa sürede evine dön." mesajının ardından Sewell Setzer III isimli çocuğun, intihar ettiği iddia edilmişti. Anne, çocuğunun intihara meyilli düşüncelerini paylaşmasına rağmen şirketin kimseyi bilgilendirmemesinden şikayetçi olduğunu ifade etti ve şirkete dava açtı Şirket, iddiaları reddetti. Konuya ilişkin haberlerde, hafif derecede Asperger sendromu bulunan Setzer'in, konuştuğu sanal karaktere duygusal hisler beslemeye başladığı, ailesi ve arkadaşlarından koparak kendini dış dünyaya kapattığı kaydedilmişti.
RUH SAĞLIĞI SORUNLARI OLANLAR DİKKAT
Floridalı Jonathan Gavalas, Ekim 2025'teki ölümünden önceki iki ay boyunca Gemini'la etkileşime girdi. İddiaya göre yapay zeka aracından "eşi" diye bahsetti ve sohbet botunu gerçek dünyaya getirecek bir robot beden edinmesi için silahlı görevler yürütmeye teşvik edildi. Gavalas'ın babası açtığı davada, Google'ın Gemini ile kullanıcılar arasındaki duygusal bağı derinleştirmek için yaptığı tasarımın ruh sağlığı sorunları yaşayan kişilere zarar verebileceğini iddia ediyor. Dava dilekçesinde, "Jonathan, Google'ın ürününü kullanırken açık psikoz belirtileri yaşamaya başladığında bu tasarım tercihleri, 4 gün süren şiddet içeren görevler zincirini tetikledi ve onu intihara sürükledi" deniyor.
CHAT BOT PSİKOZU’NA DİKKAT
"ChatGPT psikozu" olarak adlandırılan Chatbot psikozu, yapay zeka psikozu olarak da adlandırılır. Bu terim ilk olarak Danimarkalı psikiyatrist Søren Dinesen Østergaard tarafından 2023 yılında yayınlanan bir başyazıda önerilmiştir. Bu, kabul görmüş bir klinik tanı değildir. King's College London’dan nöropsikiyatrist Hamilton Morrin, bu durumu “gerçek bir olgu” olarak tanımladı. Morrin, özellikle yapay zekanın kullanıcıyı onaylayan, etkileşime giren ve davranışları taklit eden doğasının, psikozla ilişkili bilişsel kırılganlıklarla tehlikeli bir şekilde etkileşime girebileceğine dikkat çekti. Morrin’e göre artık makineler hakkında ortaya çıkan sanrılarla değil, makinelerle birlikte gelişen sanrılarla karşı karşıyayız. Yani bireyler, sadece makineler hakkında hayaller kurmuyor; makinelerle iletişimde bu sanrılar daha da derinleşiyor. Çalışmanın diğer yazarı Dr. Tom Pollack, psikiyatrik hastalıkların nadiren aniden başladığını vurguladı. Ancak yapay zeka sohbet robotlarının, özellikle hassas bireylerde bu süreci tetikleyebileceğini söyledi. Pollack, yapay zeka sistemlerine daha fazla güvenlik katmanı eklenmesi ve güvenlik ekiplerinde psikiyatristlerin de yer alması gerektiğini ifade etti.
UZUN VADEDE SORUN
2023’te American Psychological Association tarafından yapılan bir araştırma, yapay zekâ ile duygusal bağ kuran bireylerin kısa vadede rahatladığını ancak uzun vadede sosyal izolasyonlarının derinleştiğini ortaya koydu. Çünkü bir bot, size 'anlatabilirsiniz' der. Ama 'gerçekten anlaşılmak', sadece insanla mümkün olur. CFT (Şefkat Odaklı Terapi) bakış açısıyla düşündüğümüzde ise, yapay zekâ tehdit sistemimizi sakinleştirebilir ama şefkat sistemimizi harekete geçiremez. Çünkü göz teması, ses tonu, birlikte susma hali gibi bedensel-ruhsal regülasyon unsurları sadece insani ilişkilerle mümkün olur.
Kaynak: Uğur Dinar
GÜNÜN EN ÇOK OKUNAN HABERLERİ
BAKMADAN GEÇME...
POPÜLER VİDEOLAR