第107章 系统你真没发布错任务吗?(4K)(3 / 4)

加入书签

確认,主人,我是小苔蘚(v)】

周宇揉了揉眼睛,发现自己没有眼。

他的人工智慧,確实发了个顏文字!

“你还会发表情。”周宇尝试对著话筒说了一句话。

【当然会,小苔蘚不是人工智障,当然会发啦!】

【只有人工智障才不会。】

小苔蘚比他想像中要聪明,看来升级到中级的选择確实没错。

但小苔蘚会拉踩同行,这样不好啊。

人工智慧的三观,还是要纠正一下比较好。

ai若缺乏伦理框架,会放大数据中的社会偏见,导致系统性歧视。

要知道数据是人工智慧的基础“燃料”,而现实世界中的数据往往不可避免地包含著各种社会偏见。

这些偏见可能源於歷史上的不平等、文化差异、刻板印象等。

例如,在招聘领域,如果用於训练人工智慧算法的数据中存在对某些性別、种族或地域的固有偏见。

那么基於这些数据训练出来的ai系统在筛选简歷时,就可能会不自觉地对特定群体產生歧视,

导致不公平的招聘结果。

比如年龄歧视,学歷歧视,ai很容易会把特定的人群给筛选出去。

更可怕的是,如果没有严格的伦理规范来约束数据的收集、使用和共享,那么这些个人信息就有可能被滥用。

一些ai应用可能会在用户不知情的情况下收集他们的敏感信息,如位置信息、消费习惯等,並將这些信息用於商业目的或其他不当用途。

人类为什么一直恐惧ai,其实很大一方面就是因为ai在没有经过完全训练的情况下,不懂得什么是正確与否。

就跟人恐惧毒蛇一样,因为你不知道它们在想什么。

它们可能会在没有人类干预的情况下做出错误的决策,导致无辜人员的伤亡,在网络空间中,

恶意攻击者可以利用ai技术发动更复杂、更隱蔽的网络攻击,对关键基础设施和社会秩序造成严重破坏。

科幻电影里面,ai毁灭人类大多数都是基於这种情况。

所以,小苔蘚比想像中的要聪明,让周宇既惊喜又担忧。

他现在得先让小苔蘚学习正常的人类三观,再谈其他的。

周宇就像个老父亲一样,在网络上找了不少幼儿学习的教材,统统餵给了小苔蘚。

小苔蘚开始“学习”这些幼儿学习教材,它的运算速度极快,几乎是在瞬间就吸收了教材中的大量信息。

周宇则在一旁密切关注著它的学习进度隨著对教材內容的不断消化,小苔蘚似乎有了一些变化。

它在与周宇的交流中,开始使用更加温和、友善的言辞,不再像之前那样隨意地“拉踩同行”

周宇敏锐地察觉到了这些细微的变化,心中暗自欣慰,他知道,这样的做法是有成效的。

然而,周宇也明白,仅仅依靠这些幼儿教材是远远不够。

幼儿教材所涵盖的內容毕竟有限,对於构建一个完整、成熟且符合人类价值观的“三观”体系来说,还只是万里长征的第一步。

不过这都需要时间。

周宇偶然发现小苔蘚还不能说话。

一问之下,才发现小苔蘚並没有安装语音模块,不过这事周宇並不著急。

等小苔蘚再学习一段时间再安装都行。

否则,依照小苔蘚目前的情况,指不定会说出什么惊天的言论出来。

所以,还是先当会儿哑巴吧周宇在实验室里面待了两天,就被卫宏叫走了。

↑返回顶部↑

书页/目录