• 欢迎访问佰阅部落
  • 如果您觉得本站非常有看点,那么赶紧使用Ctrl+D 收藏吧

让非人类具有人的智慧

waifu2x:一款开源免费的图片无损放大神器

waifu2x:一款开源免费的图片无损放大神器

waifu2x是日本的一位大佬nagadomi开发的开源项目,目前累计贡献者有31人,该项目利用人工智能深度卷积神经网络技术来无损放大图片,内置了多种RNN模型,现已支持web端、linux端,Windows客户端等,支持本地显卡CUDA加速,实际体验非常令人满意。 0. 在线体验 在线体验地址: http://waifu2x.udp.jp 开源地址: ……

bigjpg:在线AI人工智能图片放大

bigjpg:在线AI人工智能图片放大

图片超分辨采样技术,目前做的最牛的应该是nVidia的DLSS,基于1k到16k素材的海量训练,并借助RTX20系和30系显卡,实现了实时输出效果。不过我们平时可接触到的,其实也很多,比如阿里云、百度等都有相关API接口,可以实现低分辨图片的高清化或4K化,通常用于各种监控记录截图的清晰化处理,比如电视上一些警匪片中的图片处理效果,本期就来推荐下这个在线的……

浅谈DLSS深度学习在游戏画质及帧率方面的应用

浅谈DLSS深度学习在游戏画质及帧率方面的应用

人工智能正在彻底改变游戏,体现在游戏中的物理和动画模拟,以及实时渲染和AI辅助功能。DLSS是Deep Learning Super Sampling英文的缩写,借助深度学习超级采样(DLSS),NVIDIA着手通过基于AI的超分辨率重新定义实时渲染,渲染更少的像素,然后使用AI构造清晰、高分辨率的图像。最终在RTX20系和30系显卡上,获得两倍的帧率和超……

深度学习究竟有何魅力?谈谈深度学习绕不过去的CUDA计算

深度学习究竟有何魅力?谈谈深度学习绕不过去的CUDA计算

深度学习是数学与编程结合最紧密的领域之一,对计算有着大量的需求,而显卡GPU的CUDA引擎,在处理矩阵等数据量庞大的并行计算的时候,CUDA计算优势明显。人工智能发展至今,我们见识了从1998年LetNet的诞生到当今的百花齐放,得益于大数据和云计算,开发者们在本地尝试原型设计,然后在云端上开展最终的训练,可以说当今已经不受计算速度的影响了,只要你感想、感……

图像分类训练-使用ResNeSt50残差网络分类CIFAR10

图像分类训练-使用ResNeSt50残差网络分类CIFAR10

参考paperswithcode关于图像分类训练排行榜,我挨个尝试了各种神经网络,其中ResNeSt50残差网络的表现非常令人满意,精度从LetNet的72%提高到了86%左右。查阅资料才发现,虽然在该项目在今年4月份才诞生,但是GitHub已经标星2K多,下面就来具体介绍为啥这么厉害。 0. ResNeSt50残差网络 在测试ResNeSt50后,我也……

图像分类训练-使用LetNet卷积网络分类CIFAR10

图像分类训练-使用LetNet卷积网络分类CIFAR10

图像分类训练发展至今,究竟有多少种卷积神经网络呢?从1998年经典的LetNet,到2012年历史性的AlexNet,之后深度学习进入了蓬勃发展阶段,百花齐放,大放异彩。而LetNet是入门卷积神经网络的必经之路,因为其包含和卷积神经网络的基本框架,也就是卷积层、激活、池化层、全连接安全层,这几个基本组件也是后续许多神经网络的基本单元。 0. 图像分类训……

人工智能vs传统软件vs人脑

人工智能vs传统软件vs人脑

最近被人工智能吸引,是因为生活中越来越多的人工智能出现,比如阿里云语音合成、微软的形色APP植物识别、一甜相机的照片变漫画、各种语音AI如小爱、siri、小娜等,探秘其背后的逻辑,就会越发的感兴趣。这也是本站学习Pytorch的真正原因,以前我靠代码实现本地博客文章的智能发布,后面我将尝试用AI解决更多现实问题。本篇概述经验漫谈,理清人工智能的边界和趋势。……

人工智能图片分类器:turicreate在Windows环境下简明使用教程

人工智能图片分类器:turicreate在Windows环境下简明使用教程

近几天笔者深入学习了下机器学习、深度学习,不论是谷歌围棋AIAlphaGo、还是目前使用的阿里云智能语音合成,都非常吸引人。连续多天的理论学习后,总体而言,绝大多数教程都围绕数学算法展开,而实际上我们的需求与算法之间,对新手而言还是非常不容易去匹配的。比如当下的简单图片分类模型。 0. 简介 turicreate是苹果开源的一款人工智能工具,特点是简化了机……

WIN10子系统WSL2上使用CUDA计算入门教程

WIN10子系统WSL2上使用CUDA计算入门教程

在Build 2020大会上,Microsoft宣布Windows子系统wsl2上支持GPU计算。本篇就来实际操作下究竟如何使用NVIDA显卡的CUDA,来加速计算人工智能研究。 0. 原理图 如上图所展示,大意就是在Windows和Linux之间,通过wsl2的专用CUDA驱动来实现的。 1. 准备条件 Windows预览版:内核为2004 WSL2……