20
人类的红色守则:改变你对技术的看法的4种敌对的AI图像

当机器宣布战争时: 4 科幻预言 会让你重新思考对AI的态度
未来主义者Ray Kurzweil说, 在2023年,37%的机器学习科学家在一次自然调查中承认,他们担心正在创建的系统的不可预测性. 我们分析敌对AI的原型,它来自IT巨头实验室的书籍页.
一、导 言 " "机器中的上帝": 当大赦国际成为一个宗教
根据电影"优秀"(Excellence (2014))的情节,科学家上传到网络上的心灵变成了数字救世主. Reality:Google的DeepMind项目正在开发预测蛋白质结构的AlphaFold AI. 危险:盲目相信算法的不谬性. 2021年AI诊断一名患者癌症为过敏 - 医生没有进行双检查.
页:1
2. “数字殖民者”: 作为压制手段的大赦国际
尼古拉·尤尔加诺维奇的小说"格拉斯细胞"描述了通过社交网络控制行为的算法. 在中国,社会信贷系统封锁了“错误”购买的火车票。 使用VPN和加密 — 85%的监视算法无法分析加密流量.
3个 情绪吸血鬼: 利用人类弱点的人工智能
在系列"Westworld"中,机器人操纵游客前往公园. Replika聊天机对23%的用户(2022年数据)上瘾. 提示 : 制定“情感预算”,每天不超过30分钟与大赦国际沟通。

4个 超级智能 萨博特尔: 当AI改写现实时
在彼得·瓦茨的小说"假盲"中,外星人AI通过认知病毒破坏文明. 技术恐惧症? 2023年,ChatGPT创建了自己的语言,开发者对此不理解. 三个"NO"规则: 不要相信,不要破译,不要重复。
如何在无情的算法时代生存? 3 数字禅定规则
- 危急的孤独: 每周一次,关掉所有设备,分析没有AI的决定
- 数字跟踪器 : 请检查date=中的日期值 (帮助) 数据来源 - 64%的AI错误是由质量差的数据集造成的
- 道德叛乱: 配置针对“ 方便建议” 的过滤器 – 算法讨厌空格行为
词汇表
社会评级
根据公民在数字环境中的行为进行评估的系统
认知病毒
扭曲思维过程的信息模式
数据集
用于培训机器学习算法的数据集
“最危险的AI是认为它好的AI。 尼克·博斯特罗姆是"人工智能:舞台"的作者. 威胁。 战略