游戏玩得好的AI,已经在看病救人了商业

来源:IT之家   作者:叶子琪   发布时间:2022-12-21 17:48   阅读量:11279   
一个游戏AI,怎么做医生的工作。 而且这个技巧是从玩游戏的经验中总结出来的。 在这里,您可以通过拍摄完整的病理扫描图像来找到病变的位置,而无需遍历所有的高倍视野。 在它看来,这个过程其实类似于登录我的世界。 这都...
 

一个游戏AI,怎么做医生的工作。

而且这个技巧是从玩游戏的经验中总结出来的。

在这里,您可以通过拍摄完整的病理扫描图像来找到病变的位置,而无需遍历所有的高倍视野。

在它看来,这个过程其实类似于登录我的世界。

这都是三个步骤:

先观察大环境。

锁定小范围

最终确定目标。

而且这种方法的效率还是很高的,是传统方法的400%。

这是一个游戏AI。赢得了NeurIPS MineRL竞赛的冠军...

那么,它究竟是怎么做到的呢。

AI如何练习游戏。

在介绍这款游戏AI之前,我们先来看看病理切片的处理难点。

临床科室不会像想象的那样只是扫一眼,而是先对整个组织切片进行数字化扫描。

之后,医生往往会得到数万乘数万像素的高分辨率图像,甚至更高,可以达到每像素0.25微米。

医生要做的就是在这个充满密集细胞和组织的超大型图像中,找到风险病灶的位置,并用肉眼做出判断,可谓大海捞针。

最近几年来,并不是没有人试图通过深度学习来解决这个问题,但挑战在于:

第一,病理图像虽然有十亿像素的高分辨率,但往往只有一个图像级标签。

目前的方法大多是依靠高倍镜下对整个切片的密集采样来提取特征,将采集到的所有特征进行整合,实现整个切片的诊断工作量可想而知

其次,这些图像中的病变区域通常是稀疏的现有的大多数方法依赖于多示例学习框架,这需要在高放大倍数下对局部图像块进行密集采样

这不仅增加了计算成本,而且导致诊断相关性弱,数据效率低一个切片往往需要几十分钟才能完成计算

可是这一次,来自腾讯的绝武团队发现了一个盲点——

传统模式下,医生虽然需要肉眼看,但往往是先在低倍镜下用显微镜扫描胶片,凭经验发现疑点后再用高倍镜检查。

而这种操作,如果放到AI的世界里,不就是最优路径决策问题吗强化学习不就是这样吗

与强化学习相连,常用于游戏AI,游戏AI是绝武AI的强项嗯,优势关闭

此前,绝武AI在《MOBA》,《RTS》,《我的世界》等多个游戏中成绩斐然凭借其最优路径决策策略,还获得了AI Summit的NeurIPS MineRL竞赛冠军

当时,CMU,微软,DeepMind和OpenAI在峰会NeurIPS上联合举办了一场名为MineRL的比赛,要求参赛队伍在4天内训练出一名能在15分钟内挖出钻石的AI矿工。

来自腾讯的觉悟AI以76.97分的绝对优势夺冠,成功成为挑战赛史上最快挖矿AI。

我的世界里找木头的动作和病理切片里找病灶差不多。

同样,环顾四周采集全局信息,然后锁定视角,找到木头后执行采集动作,以此类推。

因此,在这款游戏AI的基础上,腾讯的研究人员推出了最新的研究成果理解RLogist,意思是RL+病理学家。

那么,RLogist的绝对实现是如何实现的呢。

决策能力提升400%。

就像上面提到的人类医生的解决方案一样,《绝武RLogist》采用的是基于深度强化学习寻找最佳观影方式的方法。

这种新方法的优势是显而易见的:它避免了传统的对局部图像块的穷举分析,而是首先做出决定,寻找具有观测值的区域,并获得跨多个分辨率级别的代表性特征,以加快对整幅图像的解释。

模仿人类的思维方式,既提高了观影效率,又节约了成本。

具体来说,研究人员通过条件特征超分辨率实现了跨分辨率信息融合。

受益于条件建模,未观测区域的高分辨率特征可以根据已观测的低分辨率和高分辨率特征的匹配来更新。

其中一个关键步骤是为病理图像分析定义一个强化学习和训练环境该方法采用离散的动作空间,合理设计的图像分割和完成状态奖励函数来提高模型的收敛性能,避免陷入局部最优

相应的训练管道在以下算法中示出:

从结果上看,绝对启蒙主义者的优势非常明显研究人员选择淋巴结转移检测和肺癌分类作为两个全长扫描图像分类任务进行基准测试

结果表明,与典型的多示例学习算法相比,在观察路径显著缩短的情况下,"绝武RLogist "可以获得接近的分类性能,平均时间缩短至1/4,决策效率提高了400%。

此外,这种方法也是可解释的将决策过程可视化后,研究人员发现,在未来,无论是医学教育还是实际场景,独一无二的RLogist都能发挥很好的作用

目前,该论文已经被AAAI 2023接收,并且代码已经开源。

值得一提的是,研究人员还强调,未来将继续沿着实现RL ist的方向进行优化,包括通过引入更强的神经网络结构来增强RL ist的表征学习能力,以及使用更高阶的RL训练方法来避免学习错误的观察路径。

绝对启蒙主义者从何而来。

说到艾的绝对启蒙,我想很多人都会耳熟能详。

毕竟《王者荣耀》中的AI游戏是绝对启蒙的挑战。

还有《我的世界》,3D—FPS类游戏等可以说我从来不知道老游戏玩家

腾讯AI Lab,背后的团队,也是让AI学会玩游戏的老玩家2016年以来,开发了AI的独门绝技和AI的独门悟道,形成了悟道平台

艾是一个棋手。

它的发展始于2016年,最早从围棋开始。

2017年,绝艺在UEC世界计算机围棋大会上获得冠军,现在是国家队的职业陪练。

除此之外,它还能下棋和打麻将在四人麻将中,绝艺是业内首个达到国际标准专业水平的麻将,并获得IJCAI麻将AI大赛冠军

继绝艺之后,2017年又启动了绝武的研发。

不再是简单的博弈,而是更复杂环境下多智能体AI的战略问题。

2018年,绝艺达到王者荣耀业余选手水平,2019年达到职业电竞水平。

《王者绝对启蒙》在后面还带来了王者荣耀玩家挑战绝对启蒙和英雄练习场,成为玩家在训练中得分的好帮手。

此外,绝武出战《我的世界》,获得NeurIPS MineRL大赛冠军,成功成为挑战赛史上最快挖矿AI。

足球版绝武还获得了谷歌举办的在线世界足球锦标赛冠军。

在玩游戏AI的过程中,腾讯AI Lab还用王者荣耀沉淀了一个平台启蒙。

也就是说,腾讯的平台,算法,场景都会对学生和学界开放,让他们进行相关的游戏研究2020年8月,启蒙平台组织了首届启蒙学院大赛,今年还发布了王者荣耀1v1开放研究环境

其实游戏领域一直被认为是AI最好的试验田。

从绝无这几年的成绩不难看出,它在强化学习方面已经积累了一定的能力。

那么把最好的能力迁移到外面,落到实际应用层面,也是行业内的大势所趋。

这一次真的不能说游戏AI没学过。

论文地址:

开放源地址:

郑重声明:此文内容为本网站转载企业宣传资讯,目的在于传播更多信息,与本站立场无关。仅供读者参考,并请自行核实相关内容。

1
联系我们