-
支持中文的开源ChatGPT模型参数规模达到了1800亿,经过使用了3.5万亿条训练数据进行训练。
阿布扎比技术创新研究所(Technology Innovation Institute,简称TII)在其官网发布了一款性能卓越的开源大语言模型——Falcon180B。 Falcon180B是一个参数数量为1800亿的大型模型,使用4096个GPU在一个包含3.5万亿个token的数据集上进行训练。这也是当前开源模型中规模最大的预训练数据集之一。Falcon180B包括基础模型和聊天模型两个版本,并可商用化。 在多个权威测试平台上,Falcon180B在推理、编程、知识测试等方面表现出色,超过了…
-
AI阅读辅导初创企业Ello成功融资1500万美元,旨在提升儿童的阅读能力
文章概要: 1. 初创公司Ello利用人工智能和语音识别技术,获得1500万美元A轮融资,旨在通过阅读辅导服务帮助幼儿园至三年级的儿童提高阅读能力。 2. Ello提供订阅服务,每月以24.99美元向儿童提供五本书。利用其独有的技术,Ello还能够纠正发音错误、孩子的朗读,并提供额外的帮助。 3. 公司计划与学校合作,开发适用于课堂的产品,并推出多语言版本,以扩大产品的覆盖范围。 根据9月8日的消息,Ello是一家专注于帮助儿童提高识字能力的初创公司,通过其独特的人工智能和儿童语音识别技术在教育…
-
大型模型革新广告行业,重新定义游戏规则
百度利用大型模型进行全面重构,包括现金奶牛业务。 最近,百度营销官方宣布与文心一言合作,推出了全球首个AI Native的新一代营销平台——轻舸。 可以说,这次改变在互联网广告投放模式方面确实具有颠覆性意义: 营销方案无需再费尽心思,只需将需求告知大型模型,即可快速获得定制的营销方案。 而广告投放的整个流程,也可以通过简单的口述完成。 效果方面,让我们直接看数据: 对于搜索广告方案的创作和编辑所需时间,从小时级缩短至分钟级;在成本下降了10%的情况下,业务转化量提升了23%,整体投资回报率(RO…
-
云从科技发布面向开发者和企业的大模型公共服务平台“众寻人工智能公共服务平台”
云从科技旗下的众数信科公司宣布正式推出了全国首个面向开发者和企业的众寻人工智能公共服务平台。该平台与云从从容以及国内主流大模型进行了紧密结合,提供了一站式的大模型微调和推理能力接入,同时还提供经济实惠的GPU云算力服务,帮助开发者将AI大模型能力无缝集成到自有业务应用中。 通过发布这个平台,我们有效解决了许多科技中小企业在应用AI大模型技术时面临的对接困难、高投入、路径不明确和指导不足等问题。此外,该平台已经成功落地于国内多个数字政府、民生服务和商业服务项目中,为这些领域的发展提供了技术支持。。…
-
通过智能聊天助手司马阅,快速获得准确的关键信息
文档助手司马阅:基于AI技术的智能助手,支持多种格式文件上传,如PDF、Word等。通过语音或文字交互,能快速定位关键信息。以下为其主要应用场景: 1. 风险保护倾向分析:可分析合同的风险保护倾向,帮助用户评估风险。 2. 行业报告发展趋势总结:能够总结行业报告的发展趋势,提供关键见解。 3. 技能水平判断:可判断专业简历中的技能水平,辅助招聘和人才评估。 4. 关键卖点提炼:可提炼产品手册的关键卖点,帮助产品营销。 5. 核心要点概括:能够概括研究论文的核心要点,提供重点信息。 司马阅拥有强大…
-
加州将监管在该地区使用生成式人工智能技术
加州州长加文·纽瑟姆签署了一项重要的行政命令,旨在规范生成式人工智能在政府机构中的使用。这一举措标志着加州在推动AI负责任应用方面迈出了坚实的一步,并有望引领其他美国州份效仿,加强AI监管,确保其发展不仅具备潜在好处,还能够最大限度地减小潜在风险。 根据该命令,加州的各个政府机构需对生成式人工智能的使用对关键基础设施造成的威胁进行风险分析,并建立一个框架来分析人工智能对弱势社区的影响。此外,命令还要求建立地方政府批准的沙箱,用于测试人工智能项目和试点,以促进AI技术的创新和发展。同时,员工将接受…
-
第四范式启动港交所上市聆讯,标志着决策类人工智能公司向前迈进
北京第四范式智能技术股份有限公司在港交所主板上市聆讯,中金公司担任独家保荐人,这一信息根据港交所文件显示。 第四范式是中国最大的决策类人工智能公司,致力于帮助企业实现人工智能转型并提升决策能力。公司在企业级人工智能领域有着广泛的布局,并在金融、零售、制造、能源电力、电信和医疗等行业成功应用。 据第四范式表示,人工智能行业具有巨大的市场机遇,并且公司的营收和毛利持续快速增长。虽然公司目前处于亏损状态,但其持续高投入的研发工作确保了其技术竞争力。此外,该公司推出了企业级生成式人工智能产品"式说",以…
-
精简却强大的AI模型:TinyLlama通过仅用90天、3万亿token训练而成,模型占用550MB的空间。
文章概要: 1. TinyLlama是一款小型但功能强大的AI模型,由新加坡科技设计大学的研究团队开发,仅占用550MB内存。 2. 该模型采用了稳定扩散XL技术,并计划在90天内在3万亿代币的数据集上进行训练,旨在适应内存受限的边缘设备。 3. TinyLlama的成功将为实时机器翻译等多种应用提供高性能的AI解决方案。 9月8日消息: 新加坡科技设计大学的研究人员正在进行一个引人注目的项目,他们致力于创建一款小型但功能强大的AI模型,该模型被称为TinyLlama,其采用了紧凑的设计,只需要…
-
腾讯加入大模型竞争,掀起新一轮的战斗
腾讯数字生态大会上发布混元大模型,引发了一场新的竞争战。据介绍,腾讯混元大模型是由腾讯自主研发的通用大语言模型,拥有超过千亿参数规模和预训练语料超过2万亿个tokens。该模型具备强大的中文创作能力、复杂语境下的逻辑推理能力以及可靠的任务执行能力。 目前,腾讯混元大模型已经开始测试并应用于腾讯旗下的多个业务和产品,包括腾讯云、腾讯广告、腾讯游戏、腾讯金融科技、腾讯会议、腾讯文档、微信搜一搜、QQ浏览器等50多个产品。同时,腾讯混元大模型也将成为腾讯云MaaS服务的核心,并且不仅可以通过API直接…
-
开源巨无霸Falcon 180B:绝世性能挑战商业模型,全球热议!
近日,阿布扎比的全球领先技术研究中心TII发布了一款世界顶级开源大模型Falcon180B。该模型在经过3.5万亿个token的训练后,拥有1800亿个参数,性能超过了之前的开源模型Llama2,并且接近了谷歌的 GPT-4。Falcon180B在多个自然语言处理基准测试中表现出色,被认为是目前最好的开源大模型之一。 Falcon180B的训练过程使用了亚马逊云机器学习平台,在4096个GPU上完成了训练,总计进行了约7,000,000个GPU计算时。训练数据主要来自于RefinedWe数据集,…
