我们特别感谢DeOldify的开发者jantic,该项目处于持续维护状态,参与贡献人数已有25人,使用一种NoGAN的神经网络来训练,最终使得复原的照片毛刺几乎完全消失、人物皮肤更为自然,效果逼近真实的照片。
0. 测试环境
线上谷歌实验室,使用pytorch和Tesla P100的GPU,附上Colab实验室地址。
1. 效果图
如开头的清朝宫女图,……继续阅读 »
佰阅
2年前 (2020-09-15) 3296浏览 0评论
6个赞
waifu2x是日本的一位大佬nagadomi开发的开源项目,目前累计贡献者有31人,该项目利用人工智能深度卷积神经网络技术来无损放大图片,内置了多种RNN模型,现已支持web端、linux端,Windows客户端等,支持本地显卡CUDA加速,实际体验非常令人满意。
0. 在线体验
在线体验地址: http://waifu2x.udp.jp
开源地址: ……继续阅读 »
佰阅
2年前 (2020-09-14) 4178浏览 0评论
1个赞
图片超分辨采样技术,目前做的最牛的应该是nVidia的DLSS,基于1k到16k素材的海量训练,并借助RTX20系和30系显卡,实现了实时输出效果。不过我们平时可接触到的,其实也很多,比如阿里云、百度等都有相关API接口,可以实现低分辨图片的高清化或4K化,通常用于各种监控记录截图的清晰化处理,比如电视上一些警匪片中的图片处理效果,本期就来推荐下这个在线的……继续阅读 »
佰阅
2年前 (2020-09-12) 2891浏览 0评论
0个赞
人工智能正在彻底改变游戏,体现在游戏中的物理和动画模拟,以及实时渲染和AI辅助功能。DLSS是Deep Learning Super Sampling英文的缩写,借助深度学习超级采样(DLSS),NVIDIA着手通过基于AI的超分辨率重新定义实时渲染,渲染更少的像素,然后使用AI构造清晰、高分辨率的图像。最终在RTX20系和30系显卡上,获得两倍的帧率和超……继续阅读 »
佰阅
2年前 (2020-09-07) 1939浏览
0个赞
深度学习是数学与编程结合最紧密的领域之一,对计算有着大量的需求,而显卡GPU的CUDA引擎,在处理矩阵等数据量庞大的并行计算的时候,CUDA计算优势明显。人工智能发展至今,我们见识了从1998年LetNet的诞生到当今的百花齐放,得益于大数据和云计算,开发者们在本地尝试原型设计,然后在云端上开展最终的训练,可以说当今已经不受计算速度的影响了,只要你感想、感……继续阅读 »
佰阅
2年前 (2020-07-28) 2292浏览
0个赞
参考paperswithcode关于图像分类训练排行榜,我挨个尝试了各种神经网络,其中ResNeSt50残差网络的表现非常令人满意,精度从LetNet的72%提高到了86%左右。查阅资料才发现,虽然在该项目在今年4月份才诞生,但是GitHub已经标星2K多,下面就来具体介绍为啥这么厉害。
0. ResNeSt50残差网络
在测试ResNeSt50后,我也……继续阅读 »
佰阅
2年前 (2020-07-25) 3905浏览
3个赞
图像分类训练发展至今,究竟有多少种卷积神经网络呢?从1998年经典的LetNet,到2012年历史性的AlexNet,之后深度学习进入了蓬勃发展阶段,百花齐放,大放异彩。而LetNet是入门卷积神经网络的必经之路,因为其包含和卷积神经网络的基本框架,也就是卷积层、激活、池化层、全连接安全层,这几个基本组件也是后续许多神经网络的基本单元。
0. 图像分类训……继续阅读 »
佰阅
2年前 (2020-07-24) 1911浏览 0评论
1个赞
最近被人工智能吸引,是因为生活中越来越多的人工智能出现,比如阿里云语音合成、微软的形色APP植物识别、一甜相机的照片变漫画、各种语音AI如小爱、siri、小娜等,探秘其背后的逻辑,就会越发的感兴趣。这也是本站学习Pytorch的真正原因,以前我靠代码实现本地博客文章的智能发布,后面我将尝试用AI解决更多现实问题。本篇概述经验漫谈,理清人工智能的边界和趋势。……继续阅读 »
佰阅
2年前 (2020-07-21) 1787浏览
0个赞
在python原生编程中,我们常用sys.argv[1]来传递命令行下的参数,对单个函数而言,fire的操作也是类似,在__main__里定义fire.Fire(函数名)对象即可。但是在类上面,fire就显得非常高效。下面具体介绍。
0. 简介
开源地址:google/python-fire
python-fire是谷歌开源的一款自动生成命令行(cli)……继续阅读 »
佰阅
2年前 (2020-07-17) 1794浏览 0评论
0个赞