`
qinysong
  • 浏览: 190903 次
  • 性别: Icon_minigender_1
  • 来自: 北京
文章分类
社区版块
存档分类
最新评论
我的论坛
抛出异常的爱 写道 由于没有墙所有正常走....走进布口袋的话怎么办 它会钻进口袋里,再出来,如下:
老抛,呵呵,好久不见了呀 不会卡死在墙角的 环形障碍起点终点发过来是这样走出来的
在此把这个算法称作B* 寻路算法(Branch Star 分支寻路算法,且与A*对应),本算法适用于游戏中怪物的自动寻路,其效率远远超过A*算法,经过测试,效率是普通A*算法的几十上百倍。 通过引入该算法,一定程度上解决了游戏服务器端无法进行常规寻路的效率问题,除非服务器端有独立的AI处理线程,否则在服务器端无法允许可能消耗大量时间的寻路搜索,即使是业界普遍公认的最佳的A*,所以普遍的折中做法是服务器端只做近距离的寻路,或通过导航站点缩短A*的范围。 算法原理 本算法启发于自然界中真实动物的寻路过程,并加以改善以解决各种阻挡问题。 前置定义: 1、探索节点: 为了叙述方便,我们定义在寻路过程中向 ...
一路走好,生命因坚强而更加光芒。。。
gigix 写道这个,相当程度上取决于你给“直觉”一个怎样的定义。比如说一头驴子站在两堆完全相同的稻草中间,它需要做的就是扔一个骰子决定吃左边或者吃右边,这显然跟直觉一点关系都没有。 扔一个骰子是可以解决不能选择的困境,在目前的情况这个方法应该也是最简单实用的 还有一个问题,就是主动性方面,比如图灵测试的验证对话实例中,好像只是问-答的模式,就是人去问,机器去答,是否应该增加互动的方式会更好一些呢,比如中间机器也会发问,还是这两种模式其实没有实质性的区别呢,希望gigix赐教
gigix 写道这些还是废话,因为你去弄明白所谓智能的本质对于你实现AI或者使用AI没有任何帮助 这句话我还需要再理解理解。 gigix 写道 如果你的目标是要有一些实用意义上的进展,那么就从图灵测试开始,想想图灵测试的问题在哪里,如何去改进。一上来就自己这么想当然的海阔天空,最好的结果无非是重复别人早已经想过的东西而已。 图灵测试本身只是一个验证,并没有说明如何去实现,它也不限制如何去实现,在实现的层次考虑所实现问题的特征似乎应该是必要的
waldenlake 写道要想真正的模拟智能,也许唯一的办法就是创造一个和现有体系完全不同的“计算机”,不过看来最近XX年是不可能的了。 我也是这样认为,现在的计算机无论如何发挥都脱离不了数字(即0、1)的本质,而人类包括所有地球生物的智能基础应该要远远比数字的范畴更大。所以有时候我也幻想,将来的智能机(应该就不再叫计算机了)应该是“主板”上面放一块肉,用来代替cpu内存等等:),但是这样的幻想可能又被我们的认知所限制了。
gigix 写道引用好像是有一个哲学家说过,一个完全理性的驴子站在两堆完全相同的稻草中间,结果却因为无法取舍该先吃哪一堆而饿死。所以纯粹的理性将导致无限的循环,即无法产生一个适量的结果。 这个本身就是扯淡 即便落实到你的主题上,任何试图跟AI扯上任何关系的东西,一个伪随机数产生器都是必不可少的,所以这个问题对于一个AI来说只是一个涉及伪随机数的加权计算而已,跟什么感性根本扯不上任何关系。 多谢gigix指点,伪随机数的方式我也考虑过,但是仍然觉得无论怎么加权都属于推断的范畴,好像很难产生“直觉”的效果
对于人工智能最近对这个问题比较困惑,当然属于胡思乱想而已 理性是指导思想和活动的控制器,比如学习的时候要靠理性指导学什么东西、什么是重点、碰到问题如何解决和挂起,学完之后还要靠理性把学到的知识组织到我们已有的思想体系里,如果和以前知识体系有冲突、不一致的话如何整理以构筑出一个更完整更理性的思想体系。所以如果这么说的话,记忆、预测就是理性控制下的工作模块、工作单元,而理性就是这些工作单元的操作系统。 再一个就是感性,好像是有一个哲学家说过,一个完全理性的驴子站在两堆完全相同的稻草中间,结果却因为无法取舍该先吃哪一堆而饿死。所以纯粹的理性将导致无限的循环,即无法产生一个适量的结果。比如我们解决一个 ...
malphi 写道《thinking in java》第7章的摘要时发现一句话:函数重载有时候被说成是OO性质,只要不是动态绑定,就不是多态 主要问题确定对多态这个词的理解,如果按照《thinking in java》的理解,多态是只有到执行环境中才能确定要执行的代码,即指的是后绑定,那么Overload就不属于多态,而且在像C++这样需要明确声明后编联的语言中,如果不将Override方法声明为Virtual的,也应该就不属于多态了
Global site tag (gtag.js) - Google Analytics