人工智能带来无限可能。人工智能及其技能正在不断扩展。毒品只是最新的目标。
这些机器,模型和算法每天变得更加人性化: 他们基本上将活跃的人脑的决策和识别能力压缩为代码。
结果已经超出了我们有限的能力。人工智能作为工作和生产力的未来是一种轻描淡写的说法:从一般和广泛的意义上来说,它可以被视为未来。
人工智能现在可以“开药”——专家认为这将对整体健康产生积极影响。
研究AI“开药”的能力
搜索 表明只有在美国,与毒品有关的错误才是原因, 131名门诊患者中有854名死亡,而XNUMX名医院死亡中有XNUMX名死亡。 开药的动作既复杂又至关重要,医学专家必须经过多年的练习才能掌握。
然而,人工智能即将通过机器学习复制这些功能,并使开药变得像单击按钮一样简单。
人工智能在人类游戏中击败人类的另一个例子是? 例如,人工智能模型已经可以 “设计”肿瘤疗法,或提供任何 妊娠并发症。
但是他们怎么做呢? AI模型如何开药?
GPT-3:太好了,真是吓人
互联网为之疯狂 GPT-3 (Generative Pre-Training Transformer-3),一种由 OpenAI。 这是第三代机器学习模型,可设计网站,回答问题,是的, 可以开药。
它的“老大哥”GPT-2 已经被认为是危险的
OpenAI 过去曾引发人工智能世界的安全争论; GPT-2的引入也同样实现了。
尽管GPT-2已经带来了好处,但批评人士称它太多了 危险的。 他可以创造与真实人类无法区分的作品。 他太好了。
考虑一下 GPT-2 在其原始设计中可能使用的 124 亿个参数中仅使用了 1,5 亿个参数。嗯:GPT-3 将具有惊人的 175 亿个参数。 如果 GPT-2 是“危险的”,我们应该如何看待它的继任者?
GPT-3,对现象大为开放(甚至与毒品一起使用)
GPT-3是基于神经网络的语言模型,可预测句子在世界上存在的可能性。
甘
GPT-3利用对手生成模型说 甘 (两个中立的网络在竞争中彼此完美)。 可以获取知识并处理具有连续笔触的长笔触对不同书面材料集的长期依赖关系。
作为一种语言处理模型,它拥有迄今为止最大的培训集数据库,因此, 专家 他们相信它可以回答与医学有关的问题, 诊断哮喘并开药。
处方药:Google也有自己的AI
尽管 GPT-3 很强大,但它并不是第一个能够开药的基于人工智能的模型。谷歌的人工智能可以 提供 医生会写的食谱 精度高达75%。
该模型有几个不利点。谷歌人工智能最重大的挫折是它植根于历史数据。它只能复制医生的处方模式,而不能复制他们不断扩展的药物和副作用知识。
然而,根据研究人员的介绍,该系统适当地应用于医疗保健可以帮助医生识别异常或不正确的处方。
它的工作原理类似于银行使用的欺诈检测程序。
换句话说,在开药时,人工智能将是一个有用的工具,能够减少人类医生的错误率,而人类医生在这方面仍然是无与伦比的。
多长时间?
比安卡·斯坦 – 法学专业毕业,作家,在罗马尼亚出版过数本书,并为“ Anticipatia”(布加勒斯特)团体担任新闻记者。 它着重于指数技术,军事机器人及其与全球趋势,城市化和长期地缘政治的交汇点的影响。 他住在那不勒斯。