CopyRight©2021 139GAME.COM.CN All Right Reserved
微软为企业打造Face Check人脸识别解决方案,每次安全验证仅需0.25美元费用
8月13日消息,微软宣布,其先进的Face Check人脸识别技术现已全面对外开放给所有企业客户。这项技术通过智能整合用户的实时自拍照与其事先验证过的身份图像,大幅度提升了企业级身份验证的安全性和精确度,标志着微软在为企业提供高效且安全的身份管理解决方案上迈出了重要一步。
微软此前在今年 2 月首次公布了 Face Check 技术,并将其整合到 Entra 数字身份服务中。据微软介绍,网络犯罪分子 65% 的攻击路径都利用了不安全的身份验证方式。随着生成式 AI 的兴起,传统的数字身份系统面临着越来越大的威胁。冒充者可以轻松绕过常见的验证方法,如 CAPTCHA 验证码或个人信息问题。随着欺诈行为的猖獗,身份验证变得愈发重要。
Face Check 通过比对用户手机自拍与已验证身份照片(如护照照片)来解决这一问题。微软强调,该技术仅共享匹配结果,不涉及敏感身份数据,在保护用户隐私的同时增强了企业的身份验证能力。Face Check 还能有效抵御包括深度伪造在内的各种欺骗手段,全面保护用户身份安全。
企业可以单独购买 Face Check 服务,每次验证费用为 0.25 美元(当前约 1.8 元人民币)。此外,该技术也是微软 Entra Suite 套件的一部分,企业可以免费试用 Entra Suite,其中包含每月 8 次 Face Check 验证
《Github》企业版新增AI模型微调功能,定制化编程风格提升团队协作效率
9月11日消息,隶属于微软的知名代码托管平台,于9月10日发表文章宣告其Copilot Enterprise服务的新进展——已启动有限用户公测,旨在为该企业级客户提供微调人工智能模型的功能。这一举措意味着Github在AI辅助编程领域迈出了定制化服务的重要一步。
Github 表示 Copilot Enterprise 客户通过微调 AI 模型,更好地定制 AI 体验,让其更贴合其特定的编码实践和编程语言,提升了代码建议的相关性和质量。
GitHub 称微调模型为“定制化的下一个重大飞跃”,通过在客户组织的代码库上训练模型,并结合关于程序员如何使用 Copilot 建议的遥测数据,微调模型能够提供更佳的结果。
Github 表示:“Copilot 深入熟悉您的模块、函数、遗留或专有语言等,以及内部库,提供的代码建议不仅在语法上正确,更深度契合您团队的编码风格与标准。”
为了构建这些模型,GitHub 采用了名为低秩近似(LoRA)的方法。对于组织而言,此方法的主要优势在于训练速度更快且成本低于传统的微调技术,LoRA 方法还融入了关于团队如何与 Copilot 建议互动的洞察。
生成式 AI 的一大关注点在于数据收集,援引新闻稿报道,Github 表示经过微调的 AI 模型会妥善保护数据安全,客户数据始终归客户所有,绝不会被用于训练其他客户的模型。
微软CTO:规模定律引领AI新时代,大型语言模型潜力无限
近日消息,微软的首席技术官凯文·斯科特在最近的一次访谈中,于红杉资本的播客平台上再次强调了他的观点,即巨型语言模型的“规模法则”仍然是激发AI技术革新的一大驱动力,这一论断是在面对部分行业专家对发展瓶颈的质疑时提出的。
斯科特表示:“其他人可能持不同观点,但我认为规模化并未达到边际收益递减的临界点。我想让人们理解这里存在着一个指数级提升的过程,遗憾的是,你只能每隔几年才能看到一次,因为建造超级计算机然后用它们训练模型都需要时间。”
2020 年,OpenAI 研究人员探索了 LLM 的“规模定律”,该定律表明,随着模型变得更大(参数更多)、训练数据更多以及拥有更强大的计算能力,语言模型的性能往往会呈可预测的提升。这一定律意味着,仅仅增加模型规模和训练数据,就能够显著提升人工智能能力,而无需取得根本性的算法突破。
然而,此后也有其他研究人员对“规模定律”的长期有效性提出质疑。不过,该概念仍是 OpenAI 人工智能研发理念的基石。斯科特所持的乐观态度与部分人工智能领域批评人士的观点形成鲜明对比,一些人认为,大型语言模型的进步在类似 GPT-4 的模型级别已经停滞不前。这种观点主要基于对谷歌 Gemini 1.5 Pro、Anthropic 的 Claude Opus 以及 OpenAI 的 GPT-4o 等最新模型的非正式观察和一些基准测试结果。一些人认为,这些模型并没有像前几代模型那样取得飞跃性的进步,大型语言模型的发展可能正在接近“边际收益递减”的阶段。
人工智能领域著名批评人士 Gary Marcus 在今年 4 月写道:“GPT-3 明显优于 GPT-2,GPT-4(发布于 13 个月前)也明显强于 GPT-3。但之后呢?”
斯科特所持的立场表明,像微软这样的科技巨头仍然认为投资大型人工智能模型是合理的,他们押注于持续取得突破。考虑到微软对 OpenAI 的投资以及大力营销自家的人工智能协作工具“Microsoft Copilot”,该公司强烈希望维持人工智能领域持续进步的公众认知,即使技术本身可能遇到瓶颈。
另一位人工智能领域知名批评人士 Ed Zitron 最近在其博客上写道,有些人支持继续投资生成式人工智能的一个理由是,“OpenAI 掌握着我们不知道的某种技术,一项强大而神秘的技术,能够彻底击溃所有怀疑者的质疑。”他写道,“但事实并非如此。”
公众对大型语言模型能力提升放缓的认知,以及基准测试的结果,部分原因可能在于人工智能最近才进入公众视野,而事实上,大型语言模型已经发展多年。OpenAI 在 2020 年发布 GPT-3 之后的三年中一直持续研发大型语言模型,直到 2023 年发布 GPT-4。许多人可能是在 2022 年底利用 GPT-3.5 开发的聊天机器人 ChatGPT 上线后才开始意识到类似 GPT-3 的模型的强大功能,因此在 2023 年 GPT-4 发布时才会觉得能力提升巨大。
斯科特在采访中反驳了人工智能进步停滞的观点,但他同时也承认,由于新模型往往需要数年才能开发,因此该领域的数据点更新的确较慢。尽管如此,斯科特仍然对未来版本的改进充满信心,尤其是在当前模型表现不佳的领域。
“下一个突破即将到来,我无法确切地预测它何时出现,也不知道它会取得多大的进步,但它几乎肯定会改善目前那些不够完善的方面,比如模型的成本过高或过于脆弱,让人难以放心使用,”斯科特在采访中表示,“所有这些方面都会得到改善,成本会降低,模型会变得更加稳定。届时,我们将能够实现更加复杂的功能。这正是每一代大型语言模型通过规模化所取得的成就。”