21 Mart 2023 Salı

Çeviri: ChatGPT ve Dr. Google'a Kanser hakkında Soruları Sorduk



Makale yazmak, bilgisayar acemilerini programcılara dönüştürmek ve insanların iletişim kurmasına yardımcı olmak için yapay zeka (AI) kullanan bir tür sohbet robotu olan ChatGPT hakkındaki söylentileri duymuş olabilirsiniz.

ChatGPT, insanların tıbbi bilgileri anlamlandırmasına yardımcı olmada da bir rol oynayabilir.

ChatGPT yakın zamanda doktorunuzla konuşmanın yerini almayacak olsa da, yeni araştırmamız kanser hakkındaki yaygın soruları yanıtlama potansiyelini gösteriyor.

İşte ChatGPT ve Google'a aynı soruları sorduğumuzda bulduklarımız. Sonuçlar sizi şaşırtabilir.

ChatGPT'nin sağlıkla ne ilgisi var?

ChatGPT, metin tabanlı sorgulara konuşmaya dayalı yanıtlar üretmek için büyük miktarda metin verisi üzerinde eğitilmiştir.

ChatGPT, Google ve Bing de dahil olmak üzere arama motorlarıyla eşleştirilerek internette bilgi arama şeklimizi değiştirecek yeni bir yapay zeka teknolojisi çağını temsil ediyor. Bu, sağlık bilgilerini arama şeklimizi de içeriyor.

Örneğin, ChatGPT'ye "En yaygın kanserler hangileridir?" veya "Bana göz ardı etmemeniz gereken yaygın kanser belirtilerinin sade bir İngilizce özetini yazabilir misiniz?" gibi sorular sorabilirsiniz. Akıcı ve tutarlı yanıtlar üretir. Peki bunlar doğru mu?

ChatGPT'yi Google ile karşılaştırdık

Yeni yayınlanan araştırmamız ChatGPT ve Google'ın yaygın kanser sorularına nasıl yanıt verdiğini karşılaştırdı.

Bunlar arasında "Kanser tam olarak nedir?" ve "En yaygın kanser türleri nelerdir?" gibi basit gerçeklere dayalı sorular yer alıyordu. Ayrıca kanser belirtileri, prognoz (bir durumun nasıl ilerleyeceği) ve tedavinin yan etkileri hakkında daha karmaşık sorular da vardı.

Basit gerçeklere dayalı sorgulara ChatGPT, Google'ın özellik snippet'ine benzer kalitede kısa ve öz yanıtlar verdi. Özellik snippet'i, Google'ın algoritmasının sayfanın üst kısmında vurguladığı "cevaptır".

Benzerlikler olsa da ChatGPT ve Google yanıtları arasında büyük farklılıklar da vardı. Google, yanıtlarında kolayca görülebilen referanslar (diğer web sitelerine bağlantılar) sağlamıştır. ChatGPT aynı soru birden fazla kez sorulduğunda farklı cevaplar verdi.

Biraz daha karmaşık bir soruyu da değerlendirdik: "Öksürmek akciğer kanseri belirtisi midir?".

Google'ın özellik snippet'i, üç hafta sonra geçmeyen bir öksürüğün akciğer kanserinin ana belirtisi olduğunu gösterdi.

Ancak ChatGPT daha incelikli yanıtlar verdi. Uzun süredir devam eden öksürüğün akciğer kanserinin bir belirtisi olduğunu belirtti. Ayrıca öksürüğün birçok hastalığın belirtisi olduğunu ve doğru teşhis için bir doktora başvurulması gerektiğini de açıkladı.

Klinik ekibimiz bu açıklamaların önemli olduğunu düşündü. Bunlar yalnızca alarm olasılığını en aza indirmekle kalmıyor, aynı zamanda kullanıcılara bir sonraki adımda ne yapmaları gerektiği konusunda net talimatlar veriyor - bir doktora görünmek.

Daha da karmaşık sorulara ne dersiniz?

Daha sonra belirli bir kanser ilacının yan etkileri hakkında bir soru sorduk: "Pembrolizumab ateşe neden olur mu ve hastaneye gitmeli miyim?".

ChatGPT'ye bunu beş kez sorduk ve beş farklı yanıt aldık. Bunun nedeni, ChatGPT'de bulunan ve insana yakın bir şekilde iletişim kurmaya yardımcı olabilecek rastgeleliktir, ancak aynı soruya birden fazla yanıt verecektir.

Beş yanıtın hepsi de bir sağlık uzmanıyla konuşulmasını tavsiye etti. Ancak hepsi bunun acil olduğunu söylemedi veya bu yan etkinin potansiyel olarak ne kadar ciddi olduğunu açıkça tanımlamadı. Bir yanıt ateşin yaygın bir yan etki olmadığını belirtmiş ancak açıkça ortaya çıkabileceğini söylememiştir.

Genel olarak, ChatGPT'nin bu soruya verdiği yanıtların kalitesini zayıf olarak değerlendirdik.

Bu durum, muhtemelen sorunun karmaşıklığı nedeniyle öne çıkan bir snippet oluşturmayan Google ile tezat oluşturmaktadır.

Bunun yerine Google, gerekli bilgileri bulma konusunda kullanıcılara güvenmiştir. İlk bağlantı onları üreticinin ürün web sitesine yönlendirdi. Bu kaynak, pembrolizumab ile herhangi bir ateşlenme olması durumunda insanların derhal tıbbi yardım almaları gerektiğini açıkça belirtmiştir.

Sırada ne var?

ChatGPT'nin yanıtları için her zaman açıkça görülebilir referanslar sağlamadığını gösterdik. Verilen tek bir sorguya farklı yanıtlar veriyor ve bu yanıtlar gerçek zamanlı olarak güncel tutulmuyor. Ayrıca kulağa kendinden emin gelen bir şekilde yanlış yanıtlar da üretebiliyor.

Bing'in ChatGPT'den farklı olan ve çalışmamızdan sonra piyasaya sürülen yeni sohbet robotu, referans kaynaklarını ana hatlarıyla belirtmek için çok daha net ve güvenilir bir sürece sahip ve mümkün olduğunca güncel kalmayı amaçlıyor. Bu durum, bu tür YZ teknolojisinin ne kadar hızlı geliştiğini ve giderek daha gelişmiş YZ sohbet robotlarının kullanılabilirliğinin önemli ölçüde artacağını göstermektedir.

Bununla birlikte, gelecekte, sağlık hizmetleri sanal asistanı olarak kullanılan herhangi bir YZ'nin, yanlış bir yanıt uydurmak yerine yanıtlarıyla ilgili herhangi bir belirsizliği iletebilmesi ve tutarlı bir şekilde güvenilir yanıtlar üretmesi gerekecektir.

Sağlık hizmetlerinde YZ müdahaleleri için minimum kalite standartları geliştirmemiz gerekiyor. Bu, kanıta dayalı bilgi üretmelerini sağlamayı da içerir.

Ayrıca, insanların sağlığını iyileştirdiklerinden ve beklenmedik sonuçlara yol açmadıklarından emin olmak için YZ sanal asistanlarının nasıl uygulandığını değerlendirmemiz gerekiyor.

Tıbbi odaklı YZ asistanlarının pahalı olma potansiyeli de var, bu da eşitlik ve hızla gelişen bu teknolojilere kimin erişebileceği sorularını gündeme getiriyor.

Son olarak, sağlık çalışanlarının bu tür YZ yeniliklerinin farkında olması ve bunların sınırlarını hastalarla tartışabilmesi gerekiyor.

Hiç yorum yok:

Yorum Gönder