浏览量:4329
最新流量情况
月访问量
306.57k
平均访问时长
00:03:32
每次访问页数
4.76
跳出率
41.20%
流量来源
直接访问
50.77%
自然搜索
46.00%
邮件
0.03%
外链引荐
2.83%
社交媒体
0.30%
展示广告
0
截止目前所有流量趋势图
地理流量分布情况
中国
85.36%
新加坡
0.66%
美国
6.44%
由中国电信推出的千亿参数大模型
星辰语义大模型是中国电信推出的千亿参数大模型,具备强大的生成和理解能力。通过缓解多轮幻觉、增强关键信息注意力、强化知识图谱和知识溯源能力,提升模型在推理和回答准确性方面的表现。支持长文本生成和理解、知识问答、逻辑推理、数学能力和代码能力等多项功能,适用于办公、生产协同、客服等场景。
AIGC 应用快速构建平台
派欧算力云大模型 API 提供易于集成的各模态 API 服务,包括大语言模型、图像、音频、视频等,旨在帮助用户轻松构建专属的 AIGC 应用。该平台拥有丰富的模型资源,支持个性化需求的模型训练和托管,同时保证用户私有模型的保密性。它以高性价比、高吞吐量和高性能推理引擎为特点,适用于多种 AI 应用场景,如聊天机器人、总结摘要、小说生成器等。
国产化大模型,支持多模态,快速低成本智能化转型。
岩芯数智是一家专注于人工智能领域的公司,提供多种智能模型服务,包括Yan模型和Dolphin模型。Yan模型是国产化的大模型,支持多模态,承诺为用户提供训练周期短、数据集需求小、性价比更高的服务,帮助各产业链快速、低成本向智能化转型。Dolphin模型则提供智能对话、文章生成、文案摘要等功能,支持私域模型微调,以满足不同行业的需求。
字节跳动自研大模型,提供多模态能力
豆包大模型是字节跳动推出的自研大模型,通过内部50+业务场景实践验证,每日万亿级tokens大使用量持续打磨,提供多模态能力,以优质模型效果为企业打造丰富的业务体验。产品家族包括多种模型,如通用模型、视频生成、文生图、图生图、同声传译等,满足不同业务需求。
全面对标GPT-4 Turbo的AI大语言模型
讯飞星火是科大讯飞推出的一款全面对标GPT-4 Turbo的AI大语言模型,它通过集成多种AI技术,如语音识别、自然语言处理、机器学习等,为用户提供高效、智能的办公效率工具。该产品不仅能够处理文本信息,还能进行语音识别和生成,支持多语种,适用于企业服务、智能硬件、智慧政务、智慧金融、智慧医疗等多个领域。
全栈式虚拟人多场景应用服务
讯飞虚拟人利用最新的AI虚拟形象技术,结合语音识别、语义理解、语音合成、NLP、星火大模型等AI核心技术,提供虚拟人形象资产构建、AI驱动、多模态交互的多场景虚拟人产品服务。一站式虚拟人音视频内容生产,AIGC助力创作灵活高效;在虚拟'AI演播室'中输入文本或录音,一键完成音、视频作品的输出,3分钟内渲染出稿。
几行代码接入大模型
智谱AI大模型开放平台是一个提供多种AI模型服务的平台,支持开发者和企业快速接入大模型API,构建变革性AI体验。平台提供GLM-4系列大模型,包括免费模型GLM-4-Flash、全自研最新版本GLM-4-Plus、支持200万上下文的GLM-4-Long等。此外,还提供多模态大模型,如视觉能力GLM-4V-Plus、文生图CogView-3-Plus、文生视频CogVideoX。平台面向开发者提供模型API、Alltools API、批处理API等服务,面向企业服务提供医疗健康、汽车、游戏娱乐、文旅、智能终端、智能制造、消费等行业解决方案。
多模态大模型,赋能企业智能化转型。
西湖心辰是心辰智能云旗下的一款多模态大模型产品,它集成了先进的人工智能技术,包括自然语言处理、机器学习和数据挖掘等,旨在为企业提供全面的AI解决方案。西湖心辰通过其高情商、高智商的AI能力,帮助企业在客服、销售、人事、研发和运营等多个领域实现智能化升级,提升工作效率和服务质量。
RWKV v6 Finch 14B,开源大模型,高效处理长文本。
RWKV v6 Finch 14B是RWKV架构的第六个版本,也是该系列中最大的模型。它通过引入数据依赖性到token shift和time-mixing中,提高了处理长文本时的效率。Finch 14B模型在处理提示时,能够更好地管理其长期记忆,从而提供更广泛的应用范围。该模型是开源的,由Linux Foundation认可,并且接受社区的GPU集群时间捐赠以支持训练。
企业级AI服务平台,提供大模型应用开发与部署
无问芯穹是一个面向企业级用户的AI服务平台,专注于提供大模型应用开发与部署的解决方案。它支持多种模型和芯片,提供端到端的服务体验,包括模型微调、模型服务、开发机、任务、推理服务等。无问芯穹致力于帮助开发者和企业快速构建和部署AI应用,提高开发效率,降低技术门槛。
国际领先的语言理解与长文本处理大模型。
GLM-4-Plus是智谱推出的一款基座大模型,它在语言理解、指令遵循和长文本处理等方面性能得到全面提升,保持了国际领先水平。该模型的推出,不仅代表了中国在大模型领域的创新和突破,还为开发者和企业提供了强大的语言处理能力,进一步推动了人工智能技术的发展和应用。
对话式全链路数据分析助手
百度GBI是一款依托大模型对话交互的商业分析助手,能够实现查询、绘图、归因、预测、洞察、总结等全链路数据分析任务,无需编写SQL代码,简化了数据分析流程,提高了效率,适用于各种业务场景。
深入分析TTFT、TPS等关键指标
该网站提供了国内常见模型提供商API服务的性能指标,包括TTFT(首token时延)、TPS(每秒输出token数)、总耗时、上下文长度以及输入输出价格等详细数据。它为开发者和企业提供了评估不同大模型性能的依据,帮助他们选择最适合自己需求的模型服务。
心理健康大模型,支持心理健康辅导链路。
EmoLLM是一个心理健康大模型,由LLM指令微调而来,旨在全面理解和促进个体、群体乃至整个社会的心理健康状态。它包含认知因素、情感因素、行为因素、社会环境、生理健康、心理韧性、预防和干预措施、评估和诊断工具等多个关键组成部分。EmoLLM通过微调配置,能够在心理咨询任务上提供支持,帮助用户更好地理解和应对心理问题。
AI驱动的网页信息组织工具
Exa是一个为AI应用设计的网页信息组织工具,它通过语义搜索、内容抓取、相似性搜索等功能,帮助用户快速获取所需信息,避免信息过载和错误信息。Exa的语义搜索能够理解语义含义,而不仅仅是关键词匹配,提供更精准的搜索结果。此外,Exa支持从任何网页抓取完整且清洗过的内容,以及通过URL或长文本找到相似结果。Exa还提供了强大的过滤功能,允许用户根据域名、日期范围或数据类别进行搜索。Exa的API支持Python、Javascript和Curl等编程语言,易于集成到现有系统中。
打造大模型时代的产品能力,低成本开发智能体,实现商业闭环。
文心智能体平台 AgentBuilder 是基于文心大模型的智能体平台,支持开发者根据行业领域和应用场景,选择不同开发方式打造智能体。其主要优点包括低成本开发、流量分发路径支持,为用户提供完整的产品开发闭环。
智能文档伴侣,改变PDF内容搜索方式。
BeyondPDF是一款致力于提高用户在PDF文件中搜索内容效率的智能应用程序。它通过先进的语义搜索技术,帮助用户快速找到所需信息,即便关键词不完全匹配。产品完全免费,无需互联网连接即可使用,确保了用户的隐私和数据安全。此外,BeyondPDF无需服务器支持,所有搜索操作均在本地完成,为用户提供了极速的搜索体验。
易用、灵活、高效的开源大模型应用开发框架。
Agently是一个开源的大模型应用开发框架,旨在帮助开发者快速构建基于大语言模型的AI agent原生应用。它通过提供一系列工具和接口,简化了与大型语言模型的交互过程,使得开发者可以更专注于业务逻辑的实现。Agently框架支持多种模型,易于安装和配置,具有高度的灵活性和扩展性。
提供全面的人工智能大模型产业信息和创新价值研究。
大模型之家是一个专注于人工智能大模型产业的平台,提供行业报告、技术创新动态、专家评测和奖项荣誉等信息。它通过整合行业资源,推动人工智能技术的创新和应用,帮助企业和个人更好地理解和利用大模型技术。
一站式AI资讯平台,连接开发者与AI技术的最新动态。
掘金大模型子站是一个专注于AI领域的技术社区平台,提供从基础设施到最终应用的全景图,旨在帮助个人开发者和企业更好地理解和应用大语言模型技术。该平台通过提供资讯、工具和资源,促进AI技术的创新和应用,推动整个AI生态的发展。
构建最好的中文Llama大模型,完全开源可商用。
Llama中文社区是一个专注于Llama模型在中文方面的优化和上层建设的技术社区。社区提供基于大规模中文数据的预训练模型,并对Llama2和Llama3模型进行持续的中文能力迭代升级。社区拥有高级工程师团队支持,丰富的社区活动,以及开放共享的合作环境,旨在推动中文自然语言处理技术的发展。
深度学习算法与大模型面试指南,持续更新的面试题目集合。
DeepLearing-Interview-Awesome-2024 是一个开源的面试题目集合项目,专注于深度学习算法和大模型领域的面试准备。该项目由社区成员共同维护,旨在提供最新的面试题目和答案解析,帮助求职者和研究人员深入理解深度学习领域的前沿技术和应用。它包含了丰富的面试题目,覆盖了大语言模型、视觉模型、通用问题等多个方面,是准备深度学习相关职位的宝贵资源。
Phi-3 Mini 量化ONNX模型,支持多硬件平台加速推理
Phi-3 Mini是一款轻量级的最先进的开源大模型,构建于用于Phi-2的合成数据和过滤网站数据之上,致力于提供极高质量、推理密集型的数据。该模型经过了严格的增强过程,结合了监督式微调和直接偏好优化,以确保精确遵循指令和强大的安全措施。该仓库提供了Phi-3 Mini的优化ONNX版本,可通过ONNX Runtime在CPU和GPU上进行加速推理,支持服务器、Windows、Linux、Mac等多种平台,并针对每个平台提供最佳精度配置。ONNX Runtime的DirectML支持还可让开发人员在AMD、英特尔和NVIDIA GPU驱动的Windows设备上实现大规模硬件加速。
Meta 新一代开源大型语言模型,性能卓越
Meta Llama 3是Meta公司推出的新一代开源大型语言模型,性能卓越,在多项行业基准测试中表现出色。它可支持广泛的使用场景,包括改善推理能力等新功能。该模型将在未来支持多语种、多模态,提供更长的上下文窗口和整体性能提升。Llama 3秉承开放理念,将被部署在主要云服务、托管和硬件平台上,供开发者和社区使用。
万亿参数MoE文本大模型
abab 6.5系列包含两个模型:abab 6.5和abab 6.5s,均支持200k tokens的上下文长度。abab 6.5包含万亿参数,而abab 6.5s则更高效,能在1秒内处理近3万字的文本。它们在知识、推理、数学、编程、指令遵从等核心能力测试中表现出色,接近行业领先水平。
© 2024 AIbase 备案号:闽ICP备08105208号-14