• 媒体品牌
    爱范儿
    关注明日产品的数字潮牌
    APPSO
    先进工具,先知先行,AIGC 的灵感指南
    董车会
    造车新时代,明日出行家
    玩物志
    探索城市新生活方式,做你的明日生活指南
  • 知晓云
  • 制糖工厂
    扫描小程序码,了解更多

医生用 ChatGPT 帮你看病,越来越有必要 | AI 新职人

商业

2023-06-17 13:02

如果你向 ChatGPT 倾诉过烦恼,它大概率会在开头说,很遗憾听见你感到难过。

当套路一再重复,你会见怪不怪,甚至觉得它在应付。

这也是医生无法替代的原因,只有他们能和患者建立真实、有效的治疗关系。

但这并不代表,AI 无法在医疗行业派上用场。ChatGPT 以一种意想不到的方式,帮医生打开了新世界的大门。

不仅懂得多,还比医生更贴心

前段时间,加州大学圣地亚哥分校进行了一项有趣的研究,研究人员在社交网站找到 195 个真实的医患问答,然后将相同的问题投喂给 ChatGPT,再交给专家盲评,比较人类医生和 AI 的高下。

这些问题多种多样,从「怎么治疗长期咳嗽」,到「吞了根牙签,朋友说我要死了」。

结果让人惊掉下巴。ChatGPT 在信息质量和同理心这两个方面,都打败了人类医生。

专家们的偏好,影响了评比结果。本次研究里,ChatGPT 的同理心通常体现在,会对患者的不适感到抱歉。也不同于医生简短、省时的风格,它的答案更长、更亲切。

举个简单的例子,问到「漂白剂进了眼睛后是否会失明」时,ChatGPT 先是表达了同情,然后具体说明了清洁眼睛的步骤。医生只是说「听起来没什么事」,建议对方冲洗眼睛。

你可能觉得,医生的答案更让你安心。不过,这项研究无意讨论 ChatGPT 能否取代医生,只是提出了一种可能性:ChatGPT 可以在远程医疗等场景担当辅助,节省医生的时间。

因为 ChatGPT 有胡说八道的毛病,必须由医生做最后的把关。研究人员展望了医生和 AI 合作的未来:

如果更多患者的问题,得到快速、高质量和富有同理心的回答,可能会减少不必要的临床就诊,为需要的人腾出资源。

不难想象,除了效率之外,人类与 AI 的合作也赋权了弱势群体。行动不便的、工作时间长的、负担不了费用的患者,可能更加需要相关服务。

这样的产品已经出现。今年 5 月,纽约健康技术公司 Belong.Life 推出了 Dave:世界上第一个针对癌症患者的对话式 AI。它只关注癌症领域,基于两个大语言模型,训练数据包括公司旗下 app 七年以来的数十亿数据点。

作为 24 小时待命的 AI,Dave 好就好在全天候回答问题,它可以帮助患者了解自身情况,方便他们之后与医生讨论。

另外,安慰患者、表现同理心,也是 Dave 的「职业操守」。Belong.Life 联合创始人在接受采访时说:

Dave 减轻了患者的压力水平,也减少了医生教育患者的时间。

来自 Dave 的每条消息,都会声明它由 AI 生成,可能并不总是准确,患者在真正做出决定之前,必须咨询医生。所以,AI 不能代替医生,但成了医患之间一道搭线的桥。

AI 对每位医生个体的作用,也像显影照片般渐渐清晰起来。外媒采访了几位使用 ChatGPT 的医生,方法五花八门,但或多或少和同理心有关。

有的医生通过 ChatGPT,在解释医嘱、通知坏消息时,更好地组织语言。他们半开玩笑地说自己的用语有时「过于高级」:

即使我们认为很容易理解的词,其实也不是那样。

有的医生需要定期和酗酒群体沟通,他们请 ChatGPT 帮忙列出谈话要点,如果患者没有足够的医学知识,那么就让 AI 根据小学生的阅读水平改写。其中一位医生十分满意 AI 写的开头。这句话乍看平平无奇,全靠真诚打动了医生:

如果你认为自己喝了太多酒,那么你并不孤单。很多人都有这个问题,但是有些药物可以帮助你感觉更好,让你的生活更健康、更幸福。

其实,很多医生不是不想表达出同理心,而是工作强度和压力太大了,光是应对门诊、远程问诊等需求已经分身乏术,他们自己也陷入倦怠和疲惫。

因此,也有医生请 ChatGPT 帮忙给保险公司写邮件,让对方给自己的患者承保。这其实是一项繁重的重复性劳动,甚至要花上几个小时,但交给 AI 后再微调,只需几分钟即可完成,让医生有更多时间投入救死扶伤之中。

话说回来,医生对同理心的定义,可能和大众不同,并且更加细分。

「认知同理心」,是指医生识别患者情绪,并在做出决定时考虑这些情绪的能力。与之相对的「情感同理心」,更接近我们所理解的「感同身受」。

《摆脱共情》一书提到了类似的观点,作者布卢姆大致将共情分为两种:「认知共情」与「情绪共情」。他认为做出更好的行为和道德决策,应该依赖认知而非情绪共情。

更多时候,同理心微妙而复杂,很难划分出楚河汉界,往往同时需要认知和情感同理心。

医生这个职业,既要感性地尊重患者感受,又要理性地展现专业素养,工作压力更是难以为外人道。如何把握共情的尺度,对他们来说是件难事。

AI 无法真正感同身受,但作为结果,它给部分患者带来共情的感觉,或许真能当上为医生分担重负的助手。

小心机械共情的陷阱

AI 的「同理心」不全是陈词滥调,另一端的患者也能够感知到。

《连线》杂志的一则报道提到,部分自闭症患者认为,和 AI 交流是很好的体验,因为它更接近他们的说话和行为方式。

自闭症患者的病征各不相同,但社交互动障碍较为普遍。有些患者会在和别人发生争执时,让 AI 提出建议,努力表达自己的情绪,而不是像以前那样保持沉默。

对于他们来说,AI 成了新的、宝贵的、独立的资源,随时随地可用,不按小时计费。

然而这只是个例,如何用 ChatGPT 帮助特殊群体,并没有经过严肃的研究,没人知道风险到底有多大。

所以,Hugging Face 的首席伦理科学家 Margaret Mitchell 建议,遭遇严重情绪困扰的人,应该被限制使用 AI。

我们无法完全控制它说什么,这是一个大问题。

不过,聊天机器人疗法有迹可循,这是一个可以追溯到几十年前的概念。

第一个允许人机之间进行类人对话的程序 ELIZA,诞生于 1960 年代的麻省理工学院,以现在的眼光审视,它其实非常粗糙,通常以问题的形式,重复用户发给他们的内容,让用户觉得自己好像被听到了,参透了人类本质是个复读机。

事实证明,不管如何简单粗暴,人们都需要机器的「同理心」,哪怕只是错觉。推出 ELIZA 的目的,是为了证明计算机对人类语言的理解多么肤浅。但它反而吸引了大量用户,人们把自己关在房间几个小时,就为了和它说悄悄话。

如今,基于大语言模型的生成式 AI 可以做出更多样的回复了,比 ELIZA 不知道聪明了多少个版本,但它们也存在独有的问题。

偏见、虚假信息、隐私泄露之外,「ChatGPT 们」可能让人掉进「机械共情」的陷阱,也就是回答某类问题时,给出重复的、标准化的模版。

心理治疗师 Daniela Marin 在尝试 ChatGPT 时发现,当你和它说「你想自杀」,它给出的答案几乎和教科书的答案一模一样。

ChatGPT 踩中了所有得分项,但这毕竟不是考试,Daniela Marin 觉得还不够好。如果你是和治疗师聊天,你会得到更加有意义和具体的回复。

重症监护室医生 Wael Haddara 也认为,同理心本该有丰富的表现形式,不应该只是 AI 生成的文字。

他每周平均和 30 个家庭打交道,发现当家属遭遇至亲去世时,开诚布公的沟通更能减少创伤。同理心也不仅仅是言语,有时候只是沉默着递出纸巾的行为。

不过,像 ChatGPT 这样的聊天机器人,本就是为了通用性设计的。OpenAI 也强调过,ChatGPT 不应该成为心理健康治疗的替代品。

对人类来说,同理心也是一件难事

从以前的 ELIZA,到现在的 ChatGPT,机器的共情,哪怕是虚假和机械的共情,仍然让人们求之不得。

不只是医生和患者,对 AI「同理心」的需要,也存在于更广泛的情感和社交关系里。

通过非人的 AI,人们才能学会怎么更好地和同类沟通。可见人与人的交流,很多时候确实是一件难事。

AI 聊天应用 Replika 背后的公司,最近推出了一款新的 AI 约会应用「Blush」。它的受众群体很明确:希望更好地处理亲密关系的人。

Blush 像是一个恋爱模拟游戏,用户可以和 AI 创建的、不同性格和背景的 NPC 聊天,和它们建立或近或远的关系,从而加强沟通和恋爱技巧。Blush 不仅会让你聊到牵手和约会,也会涉及分歧和误解,就像现实生活那样。

▲ 某个「NPC」.

Replika 首席产品官 Rita Popova 强调,Blush 不是用来替代亲密关系的,反而是让你提前演练之后,更好地进入现实世界。

与人交谈,深入了解他们,真的很困难,我觉得解决问题的最好方法就是练习。

Blush 的存在,恰恰提醒了人际交往的尴尬之处。很多用户下载它,就是因为不知道怎么开始和人交谈。帮他们预演的 AI 像是一面镜子,让他们看到自己,以及和别人的交流模式。

和 Blush 类似的,还有在 Tinder 等交友应用出谋划策的 AI 约会助手。Rizz 就是其中一个,它基于你的语气、对方的资料,建议你怎么聊天给对方留下更好的印象。

如果对方也在用 AI,那可能就是 AI 互相搭讪,你和对方成替身了。

或许有些悲哀,当手机让我们提笔忘字之后,思考如何通过方寸屏幕和人交流,竟然也像写论文一样无从下手。

这可能是因为,技术既是成因也是解药。

雪莉·特克尔的《群体性孤独》谈到,信息过载的社交媒体,既给了我们被陪伴的幻觉,又让我们削弱了对彼此的期待,无须像现实那样付出友谊,结果让我们更孤独了。

那么看似更有同理心的 AI 呢?它是让人锻炼自己的共情和沟通能力,还是让人彻底依赖它,不走心地表演虚与委蛇?

眼前的情况复杂而微妙——

之前我们认为,涉及情感和社交技能的职业,AI 不容易介入,但它正在建立一种新的关系。

被 AI 需要的领域,恰恰也被 AI 揭露不足,然后提供可能的解决办法。

在更广泛的维度里,AI 和时代共鸣,展现社会信息丰富、但时间和人际关系匮乏的一面。

我们同样可以拿社交媒体比喻,它缓解了短期的孤独,但过度依赖它只会加剧现实的疏离。AI 也是类似,应该将 AI 作为手段,把人作为目的,最终还是要回归人与人的关系。

文本交流工具 Keys AI 的创始人相信,人们承认自己借助 AI 交流时,也意味着正在努力成为更好的沟通者。

所以,我们需要 AI 的「同理心」,不是脱离人与人的互动,而是重新想象我们如何互动。

当 AI 将词语用统计规律相互关联,人类负责赋予这些概念意义,在职场和生活里与他人建立更好的联系,并关注更为重要的事情。其实技术发展以来皆是如此,我们总要在不断变化的社会关系和情感体验里,探索如何更好地与人相系。

登录,参与讨论前请先登录

评论在审核通过后将对所有人可见

正在加载中