基本信息
文件名称:人工智能与社会:人工智能与博弈PPT教学课件.pptx
文件大小:1.68 MB
总页数:38 页
更新时间:2025-06-27
总字数:约8.78千字
文档摘要

人工智能与社会ArtificialIntelligenceandSociety

01什么是人机学习单元一02从棋类对弈到星际争霸看人机博弈的前世今生单元二03人工智能助力天气预测单元三04人工智能与电子商务单元四模块五:人工智能与博弈05人工智能助力宇宙探索单元五

单元一.什么是人机学习Part01

单元一5.1.1机器学习的种类及内容5.1.2监督学习5.1.3无监督学习5.1.5强化学习5.1.4半监督学习

5.1.1机器学习的种类及内容机器学习(MachineLearning)是概率论、统计学、计算理论、最优化方法,以及计算机科学组成的交叉学科,其主要的研究对象是如何从经验中学习并改善具体算法的性能。人们通常所说的“机器学习”大致包含四大类:监督学习(SupervisedLearning)、无监督学习(UnsupervisedLearning)、半监督学习(Semi-supervisedLearning)和强化学习(ReinforcementLearning)。

利用一组已知类别的样本调整分类器的参数,使其达到所要求性能的过程,也称为监督训练或有教师学习SupervisedLearning监督学习顾名思义就是无须给出监督数据,进行机器学习的方法。UnsupervisedLearning无监督学习是模式识别和机器学习领域研究的重点问题,是监督学习与无监督学习相结合的一种学习方法semi-supervisedlearning,SSL半监督学习对某种状态下的各种行动进行评价,借此主动学习更好的行动方式reinforcementlearning强化学习

监督学习是从标记的训练数据来推断一个功能的机器学习任务。训练数据包括一套训练示例。在监督学习中,每个实例都是由一个输入对象(通常为矢量)和一个期望的输出值(也称为监督信号)组成。监督学习算法是分析该训练数据,并产生一个推断的功能,其可以用于映射出新的实例。一个最佳的方案将允许该算法来正确地决定那些看不见的实例的类标签。这就要求学习算法是在一种“合理”的方式从一种从训练数据到看不见的情况下形成。无监督学习即指不提供正解数据的学习方法。在机器学习方面使用,不知道正解或是没有正解的数据时,即使用无监督学习,这是一种可以对数据潜在的规律性加以归纳的学习方法。SupervisedLearning监督学习UnsupervisedLearning无监督学习

半监督学习使用大量的未标记数据,以及同时使用标记数据,来进行模式识别工作。当使用半监督学习时,将会要求尽量少的人员来从事工作,同时,又能够带来比较高的准确性,因此,半监督学习越来越受到人们的重视。半监督学习使用的数据一部分是标记过的,而大部分是没有标记的。和监督学习相比较,半监督学习的成本较低,但是又能达到较高的准确度。综合利用有类标的和没有类标的数据,来生成合适的分类函数强化学习也是使用未标记的数据,但是可以通过一些方法知道是离正确答案越来越近还是越来越远(奖惩函数)。可以把奖惩函数看作正确答案的一个延迟、稀疏的形式。可以得到一个延迟的反馈,并且只有提示是离答案越来越近还是越来越远。与监督学习不同,强化学习不会给出明确的答案(监督数据),但是人类会给予其行动的选项,以及判断该行动是否合理的基准。计算机再在这一范围内反复进行试验。因此,类似围棋和象棋这样具有固定规则,且人类能给出相关评价标准的对象是比较适合的,倘若无法给予固定规则,则计算机无法给出解决方案semi-supervisedlearning,SSL半监督学习reinforcementlearning强化学习

思考:应在什么时候去使用监督学习、无监督学习和强化学习?我们对监督学习、无监督学习和强化学习三种类型的机器学习进行了说明,其实监督学习无监督学习和强化学习的方法有许多,实际操作中需要结合目标选择与其相符的方法。监督学习:优势在于“分类”。进行分类操作时,监督学习最为实用。无监督学习:优势在于“分割”。或许人们并不清楚分割的具体方式,但如果有进行分割的需求,无监督学习无疑是最恰当的选择。强化学习:优势在于“学习行动模式”。产品的某项功能按一定的规则运转,如果希望它执行最合适的行动,则可以尝试强化学习

单元二Part02从棋类对弈到星际争霸看人机博弈的前世今生

单元二5.2.1半个世纪前的西洋跳棋人工智能程序击败人类选手5.2.2IBM深蓝战胜国际象棋世界冠军5.2.3AlphaGo战胜围棋世界冠军李世石5.2.4星际争霸的大师级玩家AlphaStar

阿瑟·萨缪尔,1901年