1.1intelligence智能:字典定义:有一种学习和应用知识的能力,一种思考和推理的本领,领会并且得益于经验的能力,这些都是有道理的。
如果我们想量化一些东西,我们将用到一些东西,像为了在环境中更好的完成任务使能力适应知识AI人工智能:作为一个学习和构造智能体程序,为了一个智能体结构在被给的环境中可以更好的完成任务1.4Does this mean that AI is impossible?不是,人工智能系统应避免解决一些难驾驭的问题,通常这意味着人工智能系统只能作出最好的行为,有时人工智能擅长解决一些结构化的实例,也许需要一些背景知识的帮助,人工智能系统应尝试做一些相同的事情1.11“surely computers cannot be intelligent-they can do only what their programmers tell them.”Is the latter statement true,and does it imply the former?This depends on your definition of “intelligent”and“tell.”In one sense computers only do what the programmers command them to do,but in another sense what the programmers consciously tells the computer to do often has very little to do with what the computer actually does. Anyone who has written a program with an ornery bug knows this,as does anyone who has written a successful machine learning program.So in one sense Samuel“told”the computer“learn to play checkers better than I do,and then play that way,”but in another sense he told the computer“follow this learning algorithm”and it learned to play. So we’re left in the situation where you may or may not consider learning to play checkers to be s sign of intelligence(or you may think that learning to play in the right way requires intelligence,but not in this way),and you may think the intelligence resides in the programmer or in the computer 2.1agent智能体:在一个环境中对一个对象作出反应的实体Agent function:智能体函数:智能体相应任何感知序列所采取的行动Agent program:智能体程序:与机器结构相结合,并且实现一个智能体函数的程序,在简单的设计下,程序将为一个新的感知调用,并返回一个动作。
Rationality理性:智能体的一个属性,即为当前的一个感知选择一个行动,并使期望效用最大化。
Autonomy自主:智能体的一个属性,是指他们的行为是由他们自己的经验决定而不是仅仅由最初的程序决定。
Reflex agent反射型智能体:一个智能体的行为仅仅依赖于当前的知觉Model-based agent基于模型的智能体:一个智能体的行动直接得自于内在模型的状态,这个状态是当前世界通用的不断更新Goal-based agent基于目标的智能体:智能体选择它相信能明确达到目标的行动Utility-based agent基于效用的智能体:试图最大化他们自己期望的快乐Learning agent学习智能体:基于长期的经验提高自己的行为2.2Both the performance measure and the utility function measure how well an agent is doing.Explain the difference between the two性能度量是被用于通过外在观察度量一个智能体的成功效应函数,将历史记录变为真实数据的函数。
效用函数和性能度量不同,此外,智能体可能没有效用函数,大多数都有一个性能度量2.5For each of following agents,developa PEAS description of the task environment:a.Robot soccer player;b.Internet book-shopping agent;c.Autonomous Mars rover;d.Mathematician’s theorem-provingassistant.①机器人足球员P(绩效测试):赢得比赛,进球数/输球数。
E(环境):场地,足球,两方队员。
A(执行机构):用于移动和踢球的设备。
S(传感器):摄像机,接触式传感器,加速器,定位传感器。
②网上书店代理P:获得需要或感兴趣的书,最小化支出E:因特网。
A:跟随链接,输入/提交数据场,显示给用户。
S:网页、用户请求③自动火星探测车P:研究,报告地形,聚集和分析样品。
E:发射舱,火星A:车轮,样品收集设备,分析设备,无线发射机。
S:摄像机,接触式传感器,加速器,定位传感器,轮子编码器,无线电接收器④数学家的定理机器证明助理P:证明定理的正确性/错误性E:机器,助理A:证明机器部件。
S:异或门,与门显示结果部件。
2.6For each of the agent types listed in Exercise 2.5,characterize the environment according to the properties given in Section2.3,and select a suitable agent design.The following exercises all concern the implementation of environment and agents for the vacuum-cleaner world.①基于条件反射模型的代理对很多方面有处理能力,但对于战术打法,据预测,基于效用的代理亦有用。
②基于目标的代理合适特定书本的要求,对于更多开放式任务,例如“寻找自己感兴趣的书”在交易是,代理必须比较各种可能购买的效率。
③基于条件反映模型的代理对于水平导航,避障,路径规划,实验等有能力,但一些基于目标与效率将诶和的代理也是必须的。
④对于具体证明任务,基于目标的代理是必不可少的,例如“探测任务”“证明一些关于有关抛物线的操作”这时基于效用结构是必不可少的。
3.1state:一个智能体自身的情况。
我们可以分为两种:world state真实世界的真实情况,representational state智能体根据根据现实世界描述应该做什么。
State space:是一个图形,这个图形以状态为结点,以行为来连接这些结点。
这些结点功能是从一个状态转向另一个状态。
Search tree:搜索树是一棵以根结点为开始状态,并且每个结点是由无论采取任何行为都可以到达的状态组成的树。
Search node:一棵搜索树的搜索结点Goal:智能体想达到的一种状态Action:智能体可以选择做什么Successor function(后继函数):描述智能体的选项,在给定的状态下,它可以得到一个(行为,状态)集合,并且通过此行为可达到这个状态。
Branching factor:一个搜索树的分支因子是可提供给智能体的行为数量3.8a:用四种颜色涂地图Initial state:所有区域都没有被涂色Goal test:所有区域都被上色,而且相邻区域颜色不同Successor function:为一个区域分配一种颜色Cost function:路径耗损b:猴子拿香蕉initial state:一个三尺高的猴子摘八尺高的天花板上的香蕉,房子里有两个三尺高的箱子goal test:猴子拿到香蕉successor function:挪动箱子,把箱子叠起,走到箱子上摘香蕉cost fuction:行动数量c:判断记录合法性:initial state:考虑所有输入记录goal test:考虑一个记录,并且它是非法的信息successor function:先运行检查一半记录,再检查一半记录cost function:运行次数d:为12gallon,8gallon,3gallon 的水壶加水initial state:jugs have values [0,0,0].Goal test:jugs have values [12,8,3]Successor function:Cost function:倾倒次数3.8开始状态为1,后继函数为2n 和2n+1a:画出部分图形1~15b:Suppose the goal state is 11.List the order in which nodes will be visited for breadth-first search,depth-limited search with limit 3,and iterative deepening search.广度优先:1,2,3,4,5,6,7,8,9,10,11深度优先:1,2,4,8,9,10,11迭代加深:1;1,2,3;1,2,4,5,3,6,7;1,2,4,8,9,5,10,11c:Would bidirectional search be appropriate for this problem?If so,describe in detail how it would work.双向搜索效率很高,因为在反向搜索中n 的唯一继承是n/2,这有助于集中搜索d:.What is the branching factor in each direction of the bidirectional search?2in the forward direction;1in the reverse direction.e:Does the answer to (c)suggest a reformulation of the problem that would allow you to solve the problem of getting from state 1to a given goal state with almost no search是,从目标开始使用反向搜索找到后继数字,直到14.2The heuristic path algorithm is a best-first search in which the objective function is f(n)=(2-w)g(n)+wh(n).For what values of w is this algorithm guaranteed to be optimal?(You may assume that h is admissible.)What kind of search does this perform when w =0?When w =1?When w =2?当w=0时f(n)=2g(n),其实是成本一致搜索算法,与结点的次序无关。