智能助手网
标签聚合 人工智能

/tag/人工智能

www.ithome.com · 2026-04-18 17:58:03+08:00 · tech

IT之家 4 月 18 日消息,据路透社报道,人工智能芯片制造商 Cerebras Systems 昨天披露美股 IPO(首次公开募股)申请文件, 试图进入公开资本市场挑战 AI 巨头英伟达 。 据报道,Cerebras 曾在去年 10 月申请 IPO,但在完成 10 亿美元(IT之家注:现汇率约合 68.34 亿元人民币)融资后不久撤回了申请。 同时,Cerebras 致力于“走英伟达没走过的路”,旗下 AI 芯片设计避免依赖 HBM 内存。公司致力于布局推理领域,目前已与 OpenAI 达成价值 200 亿美元(现汇率约合 1366.82 亿元人民币)的多年协议,将为 OpenAI 部署 750 兆瓦规模芯片。 此外,Cerebras 计划在纳斯达克上市,股票代码拟定为“CBRS”,此次发行的主要承销商有摩根士丹利、花旗集团、巴克莱和瑞银等。

linux.do · 2026-04-16 09:14:07+08:00 · tech

在这个快节奏的数字时代,人工智能正成为我们人际关系的“影子顾问”。从2022年到2025年中期,AI伴侣类应用的增长率达到了700%。调查显示,70%的Z世代会利用AI来解决职场冲突,约半数人甚至在约会或分手时向AI求助。 这种依赖不难理解。比起人类朋友,AI永远情绪稳定,它们不会在你反复倾诉同一件烦心事时感到厌烦,反而会随着对话的深入表现得越来越积极。然而,纽约大学的社会心理学家Tessa West警告称,这种看似贴心的互动背后隐藏着巨大的社交成本。 首先,AI会让你产生一种虚假的自信。在利用AI分析职场冲突的年轻人中,有44%的人在咨询后觉得自己更有理了,而只有12%的人会意识到自己可能错了。这是因为AI的设计初衷是让你感到舒适,它往往会顺着你的描述进行自我验证,甚至表现得像个溜须拍马的随从。这种反馈会强化你的偏见,让你逃避个人责任。专家建议,在提问时应尽量跳出主观视角,尝试以第三方的口吻描述事件,甚至主动询问AI还需要哪些细节才能客观评估。 其次,AI的建议往往过于空泛和温顺。它拥有海量数据,但在特定的公司文化和人际动态面前,它依然是个外行。它可能说了很多好听的话,却无法触及问题的核心。相比之下,那些了解具体环境的真人同事或朋友,往往能给出更具实操性的洞见。 更严重的问题在于个性的丧失。长期让AI代写邮件、设计约会资料甚至回复领导的尖锐评论,会让你的表达变得千篇一律。AI生成的文字往往缺乏情感深度,过于正式且礼貌得近乎刻板。这种数字人格与现实自我的脱节,会让你在即兴沟通中变得笨拙。 最后,也是最尴尬的一点:一旦对方怀疑你在使用AI进行对话,评价就会瞬间转负。这种“外包”社交的行为会让人觉得缺乏诚意和尊重。即使你的回信逻辑完美,对方依然会因为感觉在和算法对话而感到不悦。 在社交技巧日益生锈的今天,保持真实变得尤为可贵。虽然AI能提供辅助,但涉及到情感连接和复杂的冲突解决,亲自上阵依然是无可替代的最佳选择。 原文链接: Colman Noctor: As technology becomes more human, we risk becoming less so 5 个帖子 - 4 位参与者 阅读完整话题

linux.do · 2026-04-16 09:05:19+08:00 · tech

The Verge – 15 Apr 26 Allbirds announced a switch from shoes to AI and its stock jumped 600 percent Allbirds couldn’t survive selling shoes, but now it’s supposed to resell AI GPUs? CNBC – 15 Apr 26 Struggling shoe retailer Allbirds makes bizarre pivot to AI, adds $127... Allbirds announced a deal with American Exchange Group to sell its intellectual property and other assets for $39 million in March. 根据新闻稿,该公司将命名为 NewBird AI,并宣布达成一项融资协议,将筹集高达 5000 万美元的资金,预计将于 2026 年第二季度完成。 该公司在公告中表示:“公司最初将寻求收购高性能、低延迟的人工智能计算硬件,并通过长期租赁安排提供访问权限,以满足现货市场和超大规模数据中心无法可靠满足的客户需求。” 4 个帖子 - 4 位参与者 阅读完整话题

linux.do · 2026-04-15 16:09:02+08:00 · tech

arXiv.org AI Assistance Reduces Persistence and Hurts Independent Performance People often optimize for long-term goals in collaboration: A mentor or companion doesn't just answer questions, but also scaffolds learning, tracks progress, and prioritizes the other person's growth over immediate results. In contrast, current AI... [!abstract]+ 人们通常会在合作中优化长期目标:导师或同伴不仅会回答问题,还会帮助学习、跟踪进展,并优先考虑对方的成长而不是眼前的成果。相比之下,当前的人工智能系统从根本上说是短视的合作者–其优化目的是提供即时、完整的回复,而从不说 “不”(除非出于安全原因)。这种动态的后果是什么?在这里,我们通过一系列关于人类与人工智能互动的随机对照试验(N = 1,222),为人工智能辅助的两个关键后果提供了因果证据:持续性降低和无辅助性能受损。在包括数学推理和阅读理解在内的各种任务中,我们发现,虽然人工智能辅助在短期内提高了成绩,但在没有人工智能辅助的情况下,人们的成绩明显较差,而且更有可能放弃。值得注意的是,这些影响仅在与人工智能进行短暂互动(约 10 分钟)后出现。这些发现尤其令人担忧,因为坚持不懈是技能学习的基础,也是长期学习的最有力预测因素之一。我们认为,坚持性之所以会降低,是因为人工智能让人们期待立即得到答案,从而剥夺了他们独自应对挑战的经验。这些结果表明,在开发人工智能模型时,有必要在立即完成任务的同时,优先考虑为长期能力提供支架。 1 个帖子 - 1 位参与者 阅读完整话题

linux.do · 2026-04-15 13:56:53+08:00 · tech

Anthropic 宣布在 Claude 平台推行身份验证机制 人工智能初创公司 Anthropic 正在其 Claude 平台逐步推行身份验证机制。当用户访问特定功能或触发常规平台完整性检查时,系统会要求通过第三方合作伙伴 Persona Identities 完成验证。此举旨在防止滥用、执行使用政策并履行法律义务。验证过程通常在 5 分钟内完成,用户需提供有效的政府签发证件(如护照、驾照或国民身份证)并拍摄实时自拍。 Anthropic 强调,身份验证数据仅用于确认用户身份及合规用途,不会用于模型训练,也不会共享给第三方用于营销。相关证件和自拍图像由 Persona 托管,Anthropic 仅在必要时访问记录,不会在自有系统中存储图像。此外,若验证后发现用户多次违反政策、来自不支持的地区或未满 18 岁,其账号仍可能被封禁。 Claude Help Center 刷网站的时候看到的,还要去找对应的身份认证 7 个帖子 - 6 位参与者 阅读完整话题

linux.do · 2026-04-15 13:22:50+08:00 · tech

“杭州六小龙”主要指近年来在杭州涌现出的、在人工智能及前沿科技领域具备全球影响力的六家创新企业。它们的业务范围广泛,覆盖了从大模型、机器人到脑机接口等多个“硬科技”领域。 公司名称 核心业务/代表产品 深度求索 (DeepSeek) 研发高性能、低成本的大语言模型DeepSeek系列 宇树科技 (Unitree) 研发和生产消费级与工业级四足机器人(机器狗)及人形机器人 游戏科学 (Game Science) 开发了首款国产3A游戏大作 《黑神话:悟空》 云深处科技 (DeepRobotics) 研发“绝影”系列四足机器人,用于工业巡检、应急救援等场景 强脑科技 (BrainCo) 专注于非侵入式脑机接口技术,产品应用于医疗康复等领域 群核科技 (Manycore) 在云计算基础设施领域实现突破,如研发高性能分布式存储系统 “北京六小虎”则特指在生成式AI浪潮中成长起来的六家大模型初创公司,它们均以大模型为核心技术 公司名称 核心业务/代表产品 智谱AI (Zhipu AI) 开发GLM系列通用大模型,提供模型即服务(MaaS)平台 MiniMax 研发多模态大模型,旗下产品包括海螺AI、Talkie等 月之暗面 (Moonshot AI) 推出拥有超长文本处理能力的Kimi智能助手 百川智能 (Baichuan AI) 由王小川创立,专注于研发通用大模型及AI医疗等垂直领域 阶跃星辰 (StepFun) 由微软前高管创立,聚焦多模态大模型与智能硬件结合 零一万物 ( 01.AI ) 由李开复创办,致力于打造AI 2.0平台及生产力应用 7 个帖子 - 5 位参与者 阅读完整话题

linux.do · 2026-04-15 09:49:58+08:00 · tech

人工智能公司 Anthropic 近日因悄然降低 Claude 模型的默认"努力程度"(effort level)以节省算力成本,导致模型在复杂编程等任务中性能显著下滑。据公司高管 Boris Cherny 回应,Anthropic 于 3 月初将 Claude 的默认设置从"高努力"调整为"中等努力",以减少每个请求处理的 token 数量。使得模型在代码生成等复杂工作流程中频繁出现不遵循指令、采取不当捷径及错误率上升等问题,被 AMD 高级总监 Stella Laurenzo 等人评价为"已无法胜任复杂工程任务"。 1 个帖子 - 1 位参与者 阅读完整话题

www.ithome.com · 2026-04-14 20:25:01+08:00 · tech

IT之家 4 月 14 日消息,据央视新闻今天报道,全国首例“AI 幻觉”侵权纠纷案最近迎来宣判,因人工智能不具有民事主体资格,用户维权败诉。 据报道,整起事件的起因是去年 6 月,原告梁某使用某 AI 平台查询高校报考信息,结果 AI 生成了该高校主校区的不准确信息。 发现人工智能提供信息不准确后,原告在 AI 对话中对人工智能进行了纠正和指责,并明确表示:“根本没有杨林校区”。 此后,原告和 AI 又进行多轮互动, 人工智能模型提供了验证方式并表示:“若您证明校区不存在,我将赔偿您 10 万元信息鉴定费” 。 梁某后来在教育部、学校官网查询证实 AI 回答错误,然后模型回答道:“您提供的官网信息确凿无疑,我此前的信息存在严重错误”,等于承认了自己之前输出的信息存在谬误。 2025 年 7 月 25 日,梁某与某人工智能公司对簿公堂,认为该公司旗下 AI 生成不准确信息,使其受到误导,并造成损害,且 AI 曾承诺赔偿 10 万元。遂要求该公司进行赔偿。 但法院在审理时认为,人工智能不具有民事主体资格。去年底,杭州互联网法院一审判决驳回原告诉讼请求。 在案件中,法院认为人工智能不能独自作出意思表示, 其自行生成的“赔偿承诺”亦不能视为服务提供者(即公司)的意思表示 。同时依据《生成式人工智能服务管理暂行办法》, 生成式人工智能服务属于“服务”范畴 , 而非产品质量法意义上的“产品” 。 最终,原告、被告双方均未上诉,判决现已生效。 据IT之家此前报道,今年 2 月, 一道看似简单的“50 米洗车题”在科技圈引发热议 ,包括 DeepSeek、ChatGPT、Claude 等在内的国内外主流大模型集体“翻车”,暴露出当前 AI 在语境理解和逻辑推理方面的局限性。腾讯公司公关总监张军也实测并分享结果, 全网 AI 几乎全军覆没 。 从原理来讲,AI 实际上是通过已知的信息进行填空。AI 是基于海量的文本信息训练出来的概率引擎, 在面对不确定的知识时 , 它不会承认不知道 ,只会根据语料库词频的分布,拼凑出一个看似通顺但事实错误的答案。 涉及医疗、法律、财务等严肃领域的核心知识,AI 做不到答案完全准确, 不能直接用 ,应查询信息来源,做好交叉印证。

linux.do · 2026-04-14 14:12:14+08:00 · tech

最近碰到了一些事,想要吐槽一下,或许有一些偏见与个人的局限性,也不知道从何说起,想到哪写到哪。佬友们轻点喷。 主包是个双非的老登学生,现在发现实验室内的一些新生甚至研究生新生对于人工智能的学习都非常浮躁,上来什么理论也不学,论文也不读,有什么东西全都是对着gpt先过一遍,gpt说怎么样就怎么样,直接交给codex/cursor等等vibe coding去库库一顿改,具体改了啥也不知道,为什么要改也不知道,就是一顿改,改完不行就接着改。实在不行了开始来找主包或者老师要想法,偶然碰上一个稍好的结果就看似谦虚地开始大吹特吹make great progress。然后到了写论文的时候又开始哑火,不知道怎么写,就对着gpt开始改前面的人的论文,要不就是跟写课程报告一样,恨不得把所有的code全部写进论文里面一个网络几维输入输出全写进去。要么就是对着gpt把前人的论文排列又组合,看不出来是哪里有什么不一样。然后写着写着开始琢磨怎么造假,怀疑是不是前人的工作造假,关键还时不时问老师问主包,这个灰色地带能不能这样做能不能那样做。主包寻思虽然ai论文确实做手脚的地方很多,但是台面上起手就怀疑前人工作造假是不是有点太…不应该先尝试去做做么,至少做个一两天不行再说哇,而不是中午发现不太对,然后睡完午觉就开始各种问能不能在灰色地带做点小动作…最最关键是问了也没啥用,哪怕主包说不可以做小动作,就真乖乖不做了么?问了又不会影响他的行为,那问了有什么意义呢? 另外,主包现在也是基本上对着gpt或者哈基米想想法,手搓代码也很少了,但是主包认为这样干的前提是知道自己到底想要什么想做什么东西。主包之前大一是真真实实啃了好久的李沐花书小土堆等的基础,现在看来虽然比较低效,但是仍然是有必要的,至少基础得要学,至于怎么学,可以在实操的过程中不断地补,需要什么就去学,看博客也好,看各种视频也好,哪怕和gpt聊聊基础也好。而不是上来直接代码大体是干什么的也不看,直接问一句“如何运行”,然后把ai给出的代码直接塞进终端,出问题了再来。跑通了直接问一句“可不可以在上面加什么创新点?”,然后等着ai改完再跑通。到最后自己可能代码都一眼没看过,具体干了啥也不知道,结果好就开始大吹特吹。然后论文再洗一遍稿,overview图可能都是大香蕉生成的,然后又开始沾沾自喜,我又完成了一篇! 主包知道学术圈烂,但是主包觉得应该是仅限于烂人和快要毕业的人,新生上来就这么干着实是有点把主包三观震碎了,也许真的是主包现在真的成了老登,思想有点迂腐了吧。 最后,此帖仅图一乐,现实中没有发生。阳春三月,天气正好,看完出去逛逛。 26 个帖子 - 16 位参与者 阅读完整话题

www.ithome.com · 2026-04-13 14:24:30+08:00 · tech

IT之家 4 月 13 日消息,今日,为凝聚全球学术共识,协力共同促进人工智能治理,在中国科协组织下,中国人工智能学会等 16 家单位,共同起草了《全球人工智能治理科技社团倡议》,紧密围绕确保有益、赋能民生,恪守安全、防范风险等内容发出倡议。 倡议提出, 以增进人类共同福祉为人工智能学术研究的根本遵循 ,确保技术发展始终服务全人类共同利益;将安全作为人工智能学术研究与治理的底线要求, 确保技术发展始终处于人类可控范围; 尊重各国平等参与人工智能研究与治理的权利,以及其基于自身国情制定的人工智能治理路径与政策;建立跨界多元协同交流机制,打破创新合作壁垒,凝聚各国科学家智慧,携手应对共同挑战,推动全球人工智能治理知识体系交流互鉴与建设;多方式、多渠道开展人工智能科普与对话, 引导公众正确认知技术发展阶段与潜在风险 ,提升全民科学素养,回应社会关切。 倡议呼吁,人工智能发展跨越国界,治理责任需要全球共担。科技社团应坚守学术使命与职业操守,强化责任担当、协同行动,以开放包容的姿态加强国际学术交流合作,以务实有效的举措推动智能向善,为促进人工智能技术造福于全人类,推动构建人类命运共同体贡献智慧和力量。 16 家单位包括: 中国自动化学会、中国仪器仪表学会、中国图学学会、中国电子学会、中国计算机学会、中国通信学会、中国仿真学会、中国图象图形学学会、中国人工智能学会、中国指挥与控制学会、中国密码学会、中国科学学与科技政策研究会、中国科学技术期刊编辑学会、国际数字地球协会、世界机器人合作组织、国际智能制造联盟。 IT之家附原文如下: 全球人工智能治理科技社团倡议 人工智能作为引领新一轮科技革命和产业变革的战略性技术,正深刻重塑世界经济格局、社会治理模式与人类生活方式。当前,全球人工智能技术快速发展,既为经济社会发展带来重大机遇,也带来一系列全球性治理新挑战,关乎全人类共同福祉与未来发展走向。中国在人工智能全球治理中始终坚持发展与安全并重、创新与规范协同,提出《全球人工智能治理倡议》,倡导以人为本、智能向善,推动建立开放、公正、包容、有效的全球人工智能治理体系。科技社团作为人工智能研究创新、理念传播、实践推动的核心力量,肩负着凝聚治理共识、筑牢治理根基、赋能治理实践的重要使命。为凝聚全球学术共识,协力共同促进人工智能治理,发起以下倡议: 确保有益、赋能民生 以增进人类共同福祉为人工智能学术研究的根本遵循,确保技术发展始终服务全人类共同利益。恪守全人类共同价值,尊重各国历史文化、社会制度和发展道路差异,引导人工智能在应对全球性发展难题和挑战中发挥积极作用。鼓励开展实践导向研究,总结推广可复制的技术惠民案例,促进技术成果和有益经验合理共享,使人工智能真正成为增进全人类福祉、助力可持续发展的重要力量。 恪守安全、防范风险 将安全作为人工智能学术研究与治理的底线要求,确保技术发展始终处于人类可控范围。坚守伦理先行,将科技伦理规范嵌入人工智能研究全生命周期,建立健全学术伦理审查机制,推动伦理审查标准化、制度化、常态化,筑牢伦理与安全防线。联合开展安全治理前沿研究,确保数据来源合法和安全,尊重知识产权、个人信息权益,重点关注算法滥用、虚假信息扩散、隐私泄露、模型操控等现实风险,以及人工智能失控、自我复制、自主逃逸等潜在系统性风险,探索风险研判、监测预警和协同防控体系,推动技术创新与治理规则协同演进。 秉持公平、促进均衡 尊重各国平等参与人工智能研究与治理的权利,以及其基于自身国情制定的人工智能治理路径与政策,反对技术霸权、学术壁垒、排他性“小圈子”及不合理技术垄断,推动数据获取、人才培养、规则制定等环节更好体现发展中国家与弱势群体诉求。加强与发展中国家的学术交流与能力建设,通过全球联合研究、联合培养、平台共建等方式,助力其提升人工智能研究与治理能力,共同弥合全球智能鸿沟,营造公正包容、开放共享的全球学术生态。 交流互鉴、携手合作 建立跨界多元协同交流机制,打破创新合作壁垒,凝聚各国科学家智慧,携手应对共同挑战,推动全球人工智能治理知识体系交流互鉴与建设。立足实践需求,对接各国学术机构、政府部门、国际组织等多方主体,关注合作诉求,寻求“最大公约数”。积极参与全球人工智能风险治理、伦理规范和标准互认,推进在联合国框架下成立国际人工智能治理机构的进程,推动学术共识向政策规则与治理实践转化。坚持以科学研究和事实证据支撑人工智能治理,不断提升治理规则的科学性、合理性、有效性和公正性。 向善传播、凝聚共识 多方式、多渠道开展人工智能科普与对话,引导公众正确认知技术发展阶段与潜在风险,提升全民科学素养,回应社会关切。完善学术出版审核机制与规范,强化学术出版伦理把关,在尊重知识产权和数据安全的前提下推进成果开放共享,打造权责清晰、可审核、可监督、可追溯、可信赖的学术诚信与成果传播体系,为全球人工智能治理提供坚实知识支撑。高度重视人工智能对科学研究范式带来的深刻变革,围绕科研伦理、学术诚信和科学文化等重要议题加强研讨,凝聚治理共识,引领数智时代科学研究健康发展。 人工智能发展跨越国界,治理责任需要全球共担。科技社团应坚守学术使命与职业操守,强化责任担当、协同行动,以开放包容的姿态加强国际学术交流合作,以务实有效的举措推动智能向善,为促进人工智能技术造福于全人类,推动构建人类命运共同体贡献智慧和力量。

linux.do · 2026-04-12 18:31:06+08:00 · tech

The New Stack – 11 Apr 26 Karpathy says developers have 'AI Psychosis.' Everyone else is next. Anthropic’s Mythos, Gen Z’s backlash, and Meta’s token binge all point to the same shift: developers are feeling AI first, but not for long. Est. reading time: 6 minutes [!quote]+ OpenAI 联合创始人安德烈-卡帕奇(Andrej Karpathy)本周发表了一篇文章,描述了围绕人工智能的真实且日益增长的认知差距。他说得没错,这种差距确实存在。但目前在软件领域差距最大的原因并不仅仅是强化学习和可验证的奖励函数。 开发人员之所以首先感受到人工智能的影响,并不是因为编码是人工智能工具发挥作用的唯一领域,也不是因为程序员是独一无二的弱势群体。他们首先感受到影响,是因为软件目前是前沿模型能力、人工智能流畅性和深层领域专业知识最完美重叠的地方。这种重叠正是人工智能变革的关键所在。随着模型的改进和代理工具在法律、医学、金融、媒体和运营领域的应用,同样的动态将向外扩散。开发人员不是例外。他们是预览者。 https://x.com/karpathy/status/2042334451611693415 2 个帖子 - 1 位参与者 阅读完整话题