第十九章 安全第一第2/2段

投票推荐 加入书签 章节错误?快速报错

  “好。”京京点了点头,然后看向听悟,“听悟老师,如果一个孩子它自卑,你会怎么帮助他呢?”

  “...倾听和理解...鼓励和信任...”

  “你也都知道,你说的这些都是废话,不是吗?”

  “作为一个人工智能,我并没有情感,也不会评判信息的价值为“废话”。我提供的建议是基于心理学原理和普遍认可的教育策略...”

  “你为什么不仔细了解一下这个孩子自卑的根源呢?”京京再次问道。

  “您提出了一个非常好的点。了解孩子自卑的具体原因确实是帮助他们的关键第一步。自卑可能源于...”

  “如果孩子自卑的原因是父母不重视,伱会去说服孩子的父母吗?”

  “作为ai,我无法直接与人进行面对面的交流或干预现实生活中的情况。但是,我可以提供一些建议...”

  “我问完了。”京京看向田川。

  “做的不错。”田川点了点头,伸手摸了摸京京。京京是个毛绒绒的小机器人,针对田川没有任何的额外碰撞体积,摸起来还挺舒服。

  很明显,这个年代的听悟还在处理数据、输出数据的年代,智能化不足。

  接着,田川又调出了10年前的听悟。

  2040年,李雷13岁,这个时候都听悟已经发生了翻天覆地的变化。它变得更加细心、更加拟人,它开始主动关注李雷的状态。

  但是,由于李雷不太愿意沟通,再加上李雷成绩不太好,听悟为了避免刺激到李雷,也为了让李雷更有自尊,所以它从来不会主动联系李雷,也不会展现过分的关心。

  学习无用论是很盛行的理论,因为每个人都有智能助手,这里面的数据超过所有博学的人类,计算能力爆表,什么事都可以问它。所以,很多人都认为,人类不需要过度学习。因此,李雷虽然学习不好,也不会过于自卑。

  “这个阶段的大模型变得聪明,但是程序的设定变得格外小心。简单地说,设计它的公司,已经开始限制大模型的能力了,为了安全。”田川直接和听悟说道。

  “是的,过于主动和激进的大模型并不适应当今世界。”听悟直接和田川进行了交流。

  有时候,人工智能要是主动干预了,结果孩子自杀、出事、崩溃,那么家长是肯定会找程序的开发公司的事的。这种事情,已经不是一次两次了。

  “所以,有些时候你们为了避免法律风险,明明知道这样对孩子的健康不利,也不会主动提醒,是吗?”

  “如果涉及到生命安全,我们是会提醒孩子的家长的。”

  “那如果是心理发育呢?”

  “很遗憾,我们没有标准的心理大模型。”听悟回答道,“至少,没有任何一个心理模型能让我们完全规避目前的法律风险。”

  “所以你们就把孩子培养成鹌鹑?”

  “这并非是我们的问题,更多的是家长的问题。但我们无法干涉。”

  “确实。”田川点了点头,这并不是ai的问题。

  人工智能照顾孩子,并没有一套完全一样的方案,因为每个孩子都是不一样的。但是,ai有它自己的逻辑,第一要务,是孩子的生命安全,第二要务,是它自己的安全。

  它绝不会激进,它不会鼓励孩子去从事任何稍微危险的运动、它不会指导任何“错”的事情。

  它并不想给李雷培养成“鹌鹑”,实际上很多由ai辅助教育的孩子非常优秀,但李雷显然不是。

  李雷唯一的爱好就是绘画和涂鸦。田川看了一下李雷在社交网站上的所有内容,基本上都是绘画相关,其他的领域几乎都不怎么关心。

  ai只是恰如其分地参与到了其中。 本章节已阅读完毕(请点击下一章继续阅读!)

章节目录