这项技术是腾达目前具备,但同时还是需要的。
因为AI的学习与成长,需要依赖的就是庞大的数据库。
没有庞大的数据库,AI什么都不是。
再怎么精妙的模型和,都需要庞大的数据库。
而这个庞大的数据库,又必须精挑细选数据源。
优秀的数据可以帮助AI更加快速地成长,达成想要的目标。
反之,垃圾的数据库很有可能会导致AI倒退。
拿围棋界的阿尔法狗举例。
就算是一开始阿尔法狗什么都不会的时候,背后的团队也绝对不可能给它喂两个臭棋篓子下出来的对局。
喂的数据,一定是经过精挑细选的高水平对局。
到了阿尔法狗天下无敌的时候,人类的棋局也不会再往它的数据库里喂了。
为什么?
因为这个时候,哪怕是人类顶尖高手的对局喂进去,那都属于污染数据库了。
那么新的问题来了,如何精挑细选优秀的数据喂进去呢?
围棋这种还好,可以通过人工的方式把数据喂进去。
那更加复杂的模型呢?
两个方法。
第一个,继续加人。
核心成员不够,那就外包团队。
每个人在输入图形验证码的时候,都相当于是他们人工智能的外包团队,帮他们喂数据。
第二个,让其他经过简单训练的AI帮忙筛选一遍数据,将一些污染能力比较强的数据给筛出去。
这就需要用到大数据统计分析技术了。
这个技术非常地笼统,应用也非常地广泛。
这章没有结束,请点击下一页继续阅读!
短视频平台给用户的喜好打标签,分析用户