📢 Gate广场专属 #WXTM创作大赛# 正式开启!
聚焦 CandyDrop 第59期 —— MinoTari (WXTM),总奖池 70,000 枚 WXTM 等你赢!
🎯 关于 MinoTari (WXTM)
Tari 是一个以数字资产为核心的区块链协议,由 Rust 构建,致力于为创作者提供设计全新数字体验的平台。
通过 Tari,数字稀缺资产(如收藏品、游戏资产等)将成为创作者拓展商业价值的新方式。
🎨 活动时间:
2025年8月7日 17:00 - 8月12日 24:00(UTC+8)
📌 参与方式:
在 Gate广场发布与 WXTM 或相关活动(充值 / 交易 / CandyDrop)相关的原创内容
内容不少于 100 字,形式不限(观点分析、教程分享、图文创意等)
添加标签: #WXTM创作大赛# 和 #WXTM#
附本人活动截图(如充值记录、交易页面或 CandyDrop 报名图)
🏆 奖励设置(共计 70,000 枚 WXTM):
一等奖(1名):20,000 枚 WXTM
二等奖(3名):10,000 枚 WXTM
三等奖(10名):2,000 枚 WXTM
📋 评选标准:
内容质量(主题相关、逻辑清晰、有深度)
用户互动热度(点赞、评论)
附带参与截图者优先
📄 活动说明:
内容必须原创,禁止抄袭和小号刷量行为
获奖用户需完成 Gate广场实名
深度求索(DeepSeek):负责任创新与风险管理的警钟
来源: Cointelegraph 原文: 《 深度求索(DeepSeek):负责任创新与风险管理的警钟 》
观点作者:Merav Ozair博士
自1月20日发布以来,DeepSeek R1已经吸引了用户以及全球科技大亨、政府和政策制定者的广泛关注——从赞誉到怀疑,从采用到禁令,从创新的辉煌到无法衡量的隐私和安全漏洞。
谁是对的?简短回答:人人都对,也人人都错。
这不是“斯普特尼克(Sputnik)时刻”
DeepSeek开发了一种大型语言模型(LLM),其性能可以与OpenAI的GTPo1媲美,而且所需时间和成本仅为OpenAI(及其他科技公司)开发自己LLM的一小部分。
通过巧妙的架构优化,大幅降低了模型训练和推理的成本,DeepSeek能够在60天内、耗资不到600万美元开发出一款LLM。
的确,DeepSeek因主动寻找优化模型结构和代码的更好方法而值得认可。这是一记警钟,但远称不上是“斯普特尼克时刻”。
每位开发者都知道,提升性能有两种方式:优化代码,或“砸”大量计算资源。后者成本极高,因此开发者总是被建议在增加计算资源前,先最大化架构优化。
然而,随着人工智能初创企业估值高企、巨额投资涌入,开发者似乎变懒了。如果手握数十亿美元预算,何必花时间优化模型结构呢?
这是对所有开发者的警示:回归基础,负责任地创新,走出舒适区,跳出固有思维模式,不惧挑战常规。不必浪费金钱和资源——应明智地使用它们。
与其他LLM一样,DeepSeek R1在推理、复杂规划能力、对物理世界的理解和持久记忆方面仍有明显不足。因此,这里并没有什么颠覆性的创新。
现在是科学家们超越LLM,解决这些局限性并开发“新一代AI架构范式”的时候了。这可能不会是LLM或生成式AI——而是一场真正的革命。
为加速创新铺路
DeepSeek的方法可能鼓励全球,尤其是发展中国家的开发者,无论资源多少,都能创新并开发自己的AI应用。越多的人参与到AI研发中,创新发展的速度就越快,也越可能实现有意义的突破。
这与Nvidia的愿景一致:让AI变得负担得起,并让每位开发者或科学家都能开发自己的AI应用。这正是今年1月初宣布的DIGITS项目的意义所在——一块售价3000美元的桌面GPU。
人类需要“全员上阵”来解决紧迫的问题。资源也许不再是障碍——是时候打破旧有范式了。
与此同时,DeepSeek的发布也是对可操作风险管理和负责任AI的一次警醒。
仔细阅读条款
所有应用程序都有服务条款,而公众往往忽略它们。
DeepSeek服务条款中一些令人警惕的细节,可能影响你的隐私、安全,甚至商业战略:
数据保留:删除账户并不意味着数据被删除——DeepSeek仍然保留你的数据。
监控:应用有权监控、处理和收集用户输入和输出,包括敏感信息。
法律暴露:DeepSeek受中国法律管辖,这意味着国家机关可根据要求访问和监控你的数据——中国政府正在积极监控你的数据。
单方面变更:DeepSeek可以随时更新条款——无需你的同意。
争议与诉讼:所有索赔和法律事务均受中华人民共和国法律管辖。
上述行为明显违反了《通用数据保护条例》(GDPR)以及比利时、爱尔兰和意大利提出申诉中所列的其他GDPR隐私和安全违规行为,这些国家也因此暂时禁止了DeepSeek的使用。
2023年3月,意大利监管机构曾因GDPR违规暂时禁止OpenAI的ChatGPT上线,直至一个月后合规改进后才恢复。DeepSeek也会遵循合规之路吗?
偏见与审查
与其他LLM一样,DeepSeek R1存在幻觉、训练数据中的偏见,并在某些主题上展现出符合中国政治立场的行为,比如审查和隐私。
作为一家中国公司,这是可以预期的。适用于AI系统提供者和用户的《生成式AI法》在第4条中规定:这是一条审查规则。这意味着开发和/或使用生成式AI的人必须支持“社会主义核心价值观”,并遵守中国相关法律。
这并不是说其他LLM就没有自身的偏见和“议程”。这凸显了值得信赖和负责任AI的重要性,以及用户需要遵循严格AI风险管理的重要性。
LLM的安全漏洞
LLM可能会遭受对抗性攻击和安全漏洞。这些漏洞尤为令人担忧,因为它们将影响任何基于该LLM构建应用的组织或个人。
Qualys已对DeepSeek-R1的LLaMA 8B精简版进行了脆弱性测试、伦理风险及法律风险评估。该模型在一半的越狱测试中失败——即绕过AI模型内置安全措施和伦理准则的攻击。
高盛正在考虑使用DeepSeek,但需要进行安全审查,比如注入攻击和越狱测试。无论模型是否源自中国,对任何企业而言,使用AI模型驱动应用前都存在安全隐患。
高盛正在实施正确的风险管理措施,其他组织也应在决定使用DeepSeek前效仿这种做法。
总结经验
我们必须保持警觉和勤勉,在使用任何AI系统或应用前实施充分的风险管理。为了缓解任何LLM带来的“议程”偏见和审查问题,我们可以考虑采用去中心化AI,最好是以去中心化自治组织(DAO)的形式。AI无国界,也许现在正是考虑制定统一全球AI法规的时机。
观点作者:Merav Ozair博士
相关推荐:人工智能(AI)时代下去中心化金融(DeFi)如何实现安全规模化发展
本文仅供一般信息用途,既不是也不应被视为法律或投资建议。本文所表达的观点、想法和意见仅代表作者本人,并不一定反映或代表Cointelegraph的观点和立场。