“Tıbbi bilgi ve uygulamalar zaman içinde değişir ve gelişir ve ChatGPT’nin tipik bir tedaviyi belirtirken bilgilerini tıbbın zaman çizelgesinde nereden aldığı belli olmaz” diyor. “Bu bilgi yeni mi yoksa tarihli mi?”
Kullanıcıların ayrıca, ChatGPT tarzı botların uydurma veya “halüsinasyon” bilgileri yüzeysel olarak akıcı bir şekilde nasıl sunabileceğine ve bir kişi bir algoritmanın yanıtlarını doğrulamazsa potansiyel olarak ciddi hatalara yol açabileceğine dikkat etmesi gerekir. Ve yapay zeka tarafından oluşturulan metin, insanları ince şekillerde etkileyebilir. Ocak ayında yayınlanan ve ChatGPT’ye etik bilgiler veren, meslektaş tarafından incelenmemiş bir çalışma, insanlar tavsiyenin AI yazılımından geldiğini bilse bile, chatbot’un insanların karar verme sürecini etkileyebilecek tutarsız bir ahlaki danışman oluşturduğu sonucuna vardı.
Doktor olmak, ansiklopedik tıp bilgisini kusmaktan çok daha fazlasıdır. Pek çok doktor, ChatGPT’yi metin özetleme gibi düşük riskli görevler için kullanmaya hevesliyken, bazı biyoetik uzmanları, düşük olasılığı olan bir hasta için ameliyatın doğru seçim olup olmadığı gibi zorlu bir etik kararla karşılaştıklarında doktorların tavsiye için bota başvuracaklarından endişe ediyor. hayatta kalma veya iyileşme.
Edinburgh Üniversitesi Teknolojik Gelecekler Merkezi’nde biyoetikçi olan Jamie Webb, “Bu tür bir süreci üretken bir yapay zeka modeline göre dış kaynak kullanamaz veya otomatikleştiremezsiniz” diyor.
Geçen yıl, Webb ve ahlaki psikologlardan oluşan bir ekip, bu fikri öne süren önceki araştırmalardan esinlenerek, tıpta kullanılmak üzere yapay zeka destekli bir “ahlaki danışman” oluşturmak için ne gerektiğini araştırdı. Webb ve ortak yazarları, bu tür sistemlerin farklı etik ilkeleri güvenilir bir şekilde dengelemesinin zor olacağı ve doktorların ve diğer personelin, zorlu kararları kendileri düşünmek yerine bir robota aşırı derecede bağımlı hale gelmeleri halinde “ahlaki beceri kaybına” maruz kalabilecekleri sonucuna vardılar. .
Webb, doktorlara dili işleyen yapay zekanın çalışmalarında devrim yaratacağının daha önce söylendiğine, ancak hayal kırıklığına uğradığına dikkat çekiyor. Sonrasında Tehlike! 2010 ve 2011’de kazandığı zaferlerin ardından, IBM’deki Watson bölümü onkolojiye yöneldi ve yapay zeka ile kanserle mücadelenin etkinliği hakkında iddialarda bulundu. Ancak başlangıçta Memorial Sloan Kettering in a box olarak adlandırılan bu çözüm, klinik ortamlarda sanıldığı kadar başarılı olmadı ve 2020’de IBM projeyi kapattı.
Aldatmaca kulağa boş geldiğinde, kalıcı sonuçlar olabilir. Şubat ayında Harvard’da yapay zekanın tıptaki potansiyeli üzerine bir tartışma panelinde birinci basamak hekimi Trishan Panch, ChatGPT’den bir hastalığı teşhis etmesini istemenin sonuçlarını, chatbot’un piyasaya sürülmesinden kısa bir süre sonra Twitter’da paylaşan bir meslektaş gönderisini gördüğünü hatırladı.
Panch, heyecanlı klinisyenlerin teknolojiyi kendi uygulamalarında kullanma taahhüdünde bulunarak hızlı bir şekilde yanıt verdiğini hatırladı, ancak yaklaşık 20. yanıtta başka bir doktor devreye girdi ve model tarafından oluşturulan her referansın sahte olduğunu söyledi. Wellframe sağlık yazılımı girişiminin kurucu ortağı olan Panch, “Bütün şeye olan güveni aşındırmak için bunun gibi bir veya iki şey yeterlidir” dedi.
Yapay zekanın bazen göze batan hatalarına rağmen, eski Kaiser Permanente’den Robert Pearl, ChatGPT gibi dil modellerinde son derece iyimser olmaya devam ediyor. Önümüzdeki yıllarda sağlık hizmetlerindeki dil modellerinin, doktorları geliştirebilecek ve hastaların kronik hastalıkları yönetmesine yardımcı olabilecek özellikler ve güçle dolu olarak iPhone’a daha çok benzeyeceğine inanıyor. Hatta ChatGPT gibi dil modellerinin ABD’de her yıl tıbbi hatalar nedeniyle meydana gelen 250.000’den fazla ölümün azaltılmasına yardımcı olabileceğinden şüpheleniyor.
Pearl, yapay zeka için bazı şeylerin yasak olduğunu düşünüyor. İnsanların keder ve kayıpla baş etmelerine yardımcı olmak, ailelerle yaşam sonu konuşmaları ve yüksek komplikasyon riski içeren prosedürler hakkında konuşma bir robot içermemelidir, çünkü her hastanın ihtiyaçları o kadar değişkendir ki, bu konuşmaları yapmanız gerekir. oraya gitmek için.
Pearl, “Bunlar insandan insana konuşmalar” diyor ve bugün mevcut olanın potansiyelin yalnızca küçük bir yüzdesi olduğunu tahmin ediyor. “Yanılıyorsam, bunun nedeni teknolojideki gelişme hızını abartmamdır. Ama her baktığımda düşündüğümden daha hızlı hareket ediyor.”
Şimdilik, ChatGPT’yi bir tıp öğrencisine benzetiyor: Hastalara bakım sağlama ve müdahale etme yeteneğine sahip, ancak yaptığı her şey ilgili bir doktor tarafından gözden geçirilmelidir.
Bir yanıt bırakın