欢迎来到xjy信息网!

免费信息发布

位置:xjy信息网 > 新闻资讯 > 其他资讯 >  眼镜鼻托虽然小 法律保护不可少 轻量级冠军:NVIDIA 发

眼镜鼻托虽然小 法律保护不可少 轻量级冠军:NVIDIA 发

来源:微商网

2024-09-05 11:49:32|已浏览:110次

眼镜鼻托虽然小 法律保护不可少 轻量级冠军:NVIDIA 发布具有领先准确率的小语言模型 

眼镜鼻托虽然小 法律保护不可少

眼镜鼻托虽然小 法律保护不可少

台州椒江:

打好依法平等保护企业“组合拳”

“眼镜鼻托虽然小,但只要其注册了商标,就是一项知识产权,同样受法律保护。”近日,在浙江省台州市椒江区前所眼镜创业园区,椒江区检察院检察官围绕“涉企刑事风险防控”主题,并结合办理的知识产权案件,给椒江区眼镜行业协会成员单位的企业家授课。

同时,该院梳理分析近年来办理的涉眼镜行业刑事案件发案特征并提出防范措施,依法向椒江区眼镜行业协会制发检察建议,督促其搭建行业自律自治交流平台,整治行业乱象,提高知识产权保护意识,营造法治化营商环境。之所以开展上述工作这还要从该院办理的一起假冒眼镜鼻托案说起。

王某夫妇2004年创办了一家眼镜厂生产光板眼镜,夫妻俩勤勤恳恳,将小小的夫妻店经营得有声有色。2013年,王某安排妻子的弟弟毛某入股并担任厂长,全权负责眼镜厂经营管理、原料采购和眼镜销售。

没想到,2023年的一天,警察竟找上了门。“当时我觉得鼻托这么小的东西,用假的应该也没事,想着能赚钱就行。”2019年,因疫情期间生意难做,彼时有客户要求购买带标签鼻托的眼镜,毛某与王某商量后准备在销售光板眼镜的基础上增加该业务。

2020年9月至2021年5月,毛某和王某夫妇在明知眼镜配件供应商销售的是假冒鼻托的情况下,仍向其购买多个品牌的假冒商标鼻托,再将这些假冒鼻托用于成品眼镜的生产并销售,销售金额6万余元,后因商标侵权案发。

眼镜行业是椒江区的重要产业和特色产业,已有50余年的历史,当地政府还建立了眼镜小微企业创业园区,通过产业集群效应带动做大眼镜产业。今年3月,椒江区检察院受案后审查认为,毛某等3人犯罪情节轻微,可依法作不起诉处理。

如何避免“一放了之”?错误行为对行业的影响如何消弭?案件后续如何推进?毛某等人的行为虽然可作相对不起诉处理,但仍侵害了品牌商标,扰乱了经济秩序,应依法给予行政处罚。该院依托行刑反向衔接机制,通过“人大·检察智联督办平台”启动拟不起诉案件沟通前置程序,并向行政监管部门征询对被不起诉人行政处罚的意见。

“不起诉不等于不处罚,后续行政监管部门将作出相应行政处罚,”4月7日,椒江区检察院召开公开听证会,并邀请当地人大代表、市场监管部门工作人员参加,充分听取多方意见。听证员讨论后一致认为可对毛某等3人作出相对不起诉决定,市场监管部门认为有必要对毛某等3人进行行政处罚,以达到惩戒教育目的。

“我们一定吸取教训,好好珍惜改过的机会,依法规范经营工厂。”毛某等人表示。

5月20日,该院对毛某等3人作出不起诉决定。6月7日,椒江区市场监督管理局对被不起诉人作出相应行政处罚。

(来源:检察日报·先锋周刊 作者:范跃红 陈露)


轻量级冠军:NVIDIA 发布具有领先准确率的小语言模型

Mistral-NeMo-Minitron 8B 是最近发布的 Mistral NeMo 12B 模型的微型版本,具有高精度和高计算效率,可在 GPU 加速数据中心、云和工作站上运行模型。

生成式 AI 开发者通常需要在模型尺寸和准确性之间做出权衡。然而,NVIDIA 发布的一款新语言模型却做到了二者兼得。这款模型虽然尺寸小,却能够提供领先的准确率。

Mistral-NeMo-Minitron 8B 是 Mistral AI 与 NVIDIA 上个月发布的 Mistral NeMo 12B 开放模型的微型版本,其尺寸小到足以在 NVIDIA RTX 驱动的工作站上运行,但却在针对 AI 驱动的聊天机器人、虚拟助手、内容生成器和教育工具的多项基准测试中取得了出色的成绩。Minitron 模型是由 NVIDIA 使用 NVIDIA NeMo (一个用于开发自定义生成式 AI 的端到端平台)所蒸馏而成。

NVIDIA 应用深度学习研究副总裁 Bryan Catanzaro 表示:“我们把两种不同的 AI 优化方法相结合,将 Mistral NeMo 的 120 亿个参数剪枝到 80 亿,并通过蒸馏来提高准确性。这使 Mistral-NeMo-Minitron 8B 可以以更低的计算成本提供与原始模型相当的精度。”

不同于大语言模型,小语言模型可以在工作站和笔记本电脑上实时运行。这使资源有限的企业不仅能够更容易地将生成式 AI 功能部署到其基础设施中,同时还能优化成本、提高运营效率和降低能耗。在边缘设备上本地运行语言模型时,由于数据无需从边缘设备传输到服务器,因此还具有安全优势。

开发者现在可以开始使用 Mistral-NeMo-Minitron 8B,其已被打包为具有标准应用程序编程接口(API)的 NVIDIA NIM 微服务,开发者也可以从 Hugging Face 下载此模型。能在几分钟内部署至任何 GPU 加速系统的可下载的 NVIDIA NIM 也即将上线。

80 亿参数语言模型的最新成果

相比同等规模的语言模型,Mistral-NeMo-Minitron 8B 在九项常用语言模型性能基准测试中名列前茅。这些基准测试涵盖了各种任务,包括语言理解、常识推理、数学推理、总结、编码以及生成真实答案的能力等。

该模型以 NVIDIA NIM 微服务的形式打包,针对低延迟和高吞吐量进行了优化,低延迟意味着用户响应速度更快,而高吞吐量意味着生产中的计算效率更高。

在某些情况下,开发者可能想要在智能手机或机器人等嵌入式设备上运行一个更小的模型。为此,他们可以先下载 80 亿参数模型,然后使用 NVIDIA AI Foundry 对其进行进一步的剪枝和蒸馏提炼,针对企业特定应用定制更小、更优化的神经网络。

AI Foundry 平台和服务为开发者提供全栈解决方案,用于创建打包为 NIM 微服务的定制基础模型。它包括流行的基础模型、NVIDIA NeMo 平台和 NVIDIA DGX Cloud 上的专用容量。使用 NVIDIA AI Foundry 的开发者还可以访问 NVIDIA AI Enterprise,这是一个为生产部署提供安全性、稳定性和支持的软件平台。

由于原始 Mistral-NeMo-Minitron 8B 模型以最先进的准确性为基准,因此使用 AI Foundry 缩小后的版本仍能为用户提供高度的准确性,只需要极少的训练数据和计算基础设施。

充分利用剪枝和蒸馏的优点

为了使较小的模型实现较高的准确率,团队采用了一种结合了剪枝和蒸馏的过程。剪枝通过删除对准确率贡献最小的模型权重来缩小神经网络的大小。在蒸馏过程中,团队在一个小的数据集上重新训练了这个剪枝后的模型,以显著提高准确率(准确率在剪枝过程中有所下降)。

最终得到的是一个尺寸更小但效率更高的模型,其预测准确率不亚于原来的大模型。

这种技术意味着只需要原始数据集的一小部分,来训练相关模型系列中的每个附加模型,与从头开始训练较小的模型相比,在剪枝和蒸馏较大模型时最多可将计算成本降为原本的四十分之一。

了解更多详情,请阅读 NVIDIA 技术博客:

https://developer.nvidia.com/zh-cn/blog/mistral-nemo-minitron-8b-foundation-model-delivers-unparalleled-accuracy 和技术报告:

https://research.nvidia.com/publication/_llm-pruning-and-distillation-practice-minitron-approach

NVIDIA 还于近期发布了另一个小语言模型 Nemotron-Mini-4B-Instruct。该模型专为能够在 NVIDIA GeForce RTX AI PC 和笔记本电脑上运行时减少显存占用和加快响应速度而优化。该模型以 NVIDIA NIM 微服务的形式提供,可部署在云端和设备端,是 NVIDIA ACE 的一部分。NVIDIA ACE 是一个数字人技术套件,能够提供生成式 AI 驱动的语音、智能和动画。

您可以在 NVIDIA 官网上通过浏览器或 API 以 NIM 微服务的形式体验这两种模型:

https://developer.nvidia.cn/nim

参见有关软件产品信息的通知:

https://www.nvidia.cn/about-nvidia/terms-of-service/

  • 相关阅读