浏览量:300
最新流量情况
月访问量
4668.03k
平均访问时长
00:09:16
每次访问页数
8.67
跳出率
35.09%
流量来源
直接访问
60.26%
自然搜索
31.65%
邮件
0.02%
外链引荐
7.87%
社交媒体
0.12%
展示广告
0
截止目前所有流量趋势图
地理流量分布情况
中国
83.25%
印度尼西亚
1.13%
美国
3.75%
基于盘古研发大模型的智能开发助手
CodeArts Snap是华为云自研的基于盘古研发大模型的智能开发助手。它通过强大的软硬件算力底座、深厚的软件分析与安全可信基座、以及坚实的研发数据积淀,为开发者提供代码生成、知识问答、代码检查等多种智能化研发服务,大幅提高软件研发效率,释放研发生产力。
AIGC 应用快速构建平台
派欧算力云大模型 API 提供易于集成的各模态 API 服务,包括大语言模型、图像、音频、视频等,旨在帮助用户轻松构建专属的 AIGC 应用。该平台拥有丰富的模型资源,支持个性化需求的模型训练和托管,同时保证用户私有模型的保密性。它以高性价比、高吞吐量和高性能推理引擎为特点,适用于多种 AI 应用场景,如聊天机器人、总结摘要、小说生成器等。
国产化大模型,支持多模态,快速低成本智能化转型。
岩芯数智是一家专注于人工智能领域的公司,提供多种智能模型服务,包括Yan模型和Dolphin模型。Yan模型是国产化的大模型,支持多模态,承诺为用户提供训练周期短、数据集需求小、性价比更高的服务,帮助各产业链快速、低成本向智能化转型。Dolphin模型则提供智能对话、文章生成、文案摘要等功能,支持私域模型微调,以满足不同行业的需求。
一键智能生成PPT,提升演示效率
MINDSHOW - 麦当秀是一个依托大语言模型底层技术,结合定制算法和模型,快速智能生成演示文档的平台。它通过引入智能设计能力,将抽象概念转化为具体的视觉表现形式,同时支持多格式导入和智能文档翻译,以适应不同业务需求。该产品的主要优点包括快速生成演示文档、智能设计、多格式导入和智能翻译,旨在提高工作效率和演示质量。
字节跳动自研大模型,提供多模态能力
豆包大模型是字节跳动推出的自研大模型,通过内部50+业务场景实践验证,每日万亿级tokens大使用量持续打磨,提供多模态能力,以优质模型效果为企业打造丰富的业务体验。产品家族包括多种模型,如通用模型、视频生成、文生图、图生图、同声传译等,满足不同业务需求。
全面对标GPT-4 Turbo的AI大语言模型
讯飞星火是科大讯飞推出的一款全面对标GPT-4 Turbo的AI大语言模型,它通过集成多种AI技术,如语音识别、自然语言处理、机器学习等,为用户提供高效、智能的办公效率工具。该产品不仅能够处理文本信息,还能进行语音识别和生成,支持多语种,适用于企业服务、智能硬件、智慧政务、智慧金融、智慧医疗等多个领域。
几行代码接入大模型
智谱AI大模型开放平台是一个提供多种AI模型服务的平台,支持开发者和企业快速接入大模型API,构建变革性AI体验。平台提供GLM-4系列大模型,包括免费模型GLM-4-Flash、全自研最新版本GLM-4-Plus、支持200万上下文的GLM-4-Long等。此外,还提供多模态大模型,如视觉能力GLM-4V-Plus、文生图CogView-3-Plus、文生视频CogVideoX。平台面向开发者提供模型API、Alltools API、批处理API等服务,面向企业服务提供医疗健康、汽车、游戏娱乐、文旅、智能终端、智能制造、消费等行业解决方案。
多模态大模型,赋能企业智能化转型。
西湖心辰是心辰智能云旗下的一款多模态大模型产品,它集成了先进的人工智能技术,包括自然语言处理、机器学习和数据挖掘等,旨在为企业提供全面的AI解决方案。西湖心辰通过其高情商、高智商的AI能力,帮助企业在客服、销售、人事、研发和运营等多个领域实现智能化升级,提升工作效率和服务质量。
RWKV v6 Finch 14B,开源大模型,高效处理长文本。
RWKV v6 Finch 14B是RWKV架构的第六个版本,也是该系列中最大的模型。它通过引入数据依赖性到token shift和time-mixing中,提高了处理长文本时的效率。Finch 14B模型在处理提示时,能够更好地管理其长期记忆,从而提供更广泛的应用范围。该模型是开源的,由Linux Foundation认可,并且接受社区的GPU集群时间捐赠以支持训练。
企业级AI服务平台,提供大模型应用开发与部署
无问芯穹是一个面向企业级用户的AI服务平台,专注于提供大模型应用开发与部署的解决方案。它支持多种模型和芯片,提供端到端的服务体验,包括模型微调、模型服务、开发机、任务、推理服务等。无问芯穹致力于帮助开发者和企业快速构建和部署AI应用,提高开发效率,降低技术门槛。
国际领先的语言理解与长文本处理大模型。
GLM-4-Plus是智谱推出的一款基座大模型,它在语言理解、指令遵循和长文本处理等方面性能得到全面提升,保持了国际领先水平。该模型的推出,不仅代表了中国在大模型领域的创新和突破,还为开发者和企业提供了强大的语言处理能力,进一步推动了人工智能技术的发展和应用。
一键智能生成营销素材,省时省力又省钱。
因赛AIGC是一个AI驱动的营销素材生成平台,专注于提供AI商品图、模特图、动效海报和营销视频的智能生成服务。该平台通过先进的AI技术,简化了内容创作流程,使得用户无需专业技能即可快速生成高质量的营销素材。其主要优点包括操作简便、批量生成、高质量输出以及0成本免费体验,非常适合需要大量营销素材的企业和个人。
对话式全链路数据分析助手
百度GBI是一款依托大模型对话交互的商业分析助手,能够实现查询、绘图、归因、预测、洞察、总结等全链路数据分析任务,无需编写SQL代码,简化了数据分析流程,提高了效率,适用于各种业务场景。
一站式AI创作平台,提升写作与创意效率。
智海流光AI在线写作助手是一款集成了多种AI工具的在线平台,采用国内领先的生成型预训练变换模型(GPT),与Kimi、百度文心一言等合作伙伴共同开发。它支持AI写作、AI绘画、AI视频生成等功能,致力于提升用户的创作效率和质量。
深入分析TTFT、TPS等关键指标
该网站提供了国内常见模型提供商API服务的性能指标,包括TTFT(首token时延)、TPS(每秒输出token数)、总耗时、上下文长度以及输入输出价格等详细数据。它为开发者和企业提供了评估不同大模型性能的依据,帮助他们选择最适合自己需求的模型服务。
心理健康大模型,支持心理健康辅导链路。
EmoLLM是一个心理健康大模型,由LLM指令微调而来,旨在全面理解和促进个体、群体乃至整个社会的心理健康状态。它包含认知因素、情感因素、行为因素、社会环境、生理健康、心理韧性、预防和干预措施、评估和诊断工具等多个关键组成部分。EmoLLM通过微调配置,能够在心理咨询任务上提供支持,帮助用户更好地理解和应对心理问题。
打造大模型时代的产品能力,低成本开发智能体,实现商业闭环。
文心智能体平台 AgentBuilder 是基于文心大模型的智能体平台,支持开发者根据行业领域和应用场景,选择不同开发方式打造智能体。其主要优点包括低成本开发、流量分发路径支持,为用户提供完整的产品开发闭环。
易用、灵活、高效的开源大模型应用开发框架。
Agently是一个开源的大模型应用开发框架,旨在帮助开发者快速构建基于大语言模型的AI agent原生应用。它通过提供一系列工具和接口,简化了与大型语言模型的交互过程,使得开发者可以更专注于业务逻辑的实现。Agently框架支持多种模型,易于安装和配置,具有高度的灵活性和扩展性。
提供全面的人工智能大模型产业信息和创新价值研究。
大模型之家是一个专注于人工智能大模型产业的平台,提供行业报告、技术创新动态、专家评测和奖项荣誉等信息。它通过整合行业资源,推动人工智能技术的创新和应用,帮助企业和个人更好地理解和利用大模型技术。
一站式AI资讯平台,连接开发者与AI技术的最新动态。
掘金大模型子站是一个专注于AI领域的技术社区平台,提供从基础设施到最终应用的全景图,旨在帮助个人开发者和企业更好地理解和应用大语言模型技术。该平台通过提供资讯、工具和资源,促进AI技术的创新和应用,推动整个AI生态的发展。
构建最好的中文Llama大模型,完全开源可商用。
Llama中文社区是一个专注于Llama模型在中文方面的优化和上层建设的技术社区。社区提供基于大规模中文数据的预训练模型,并对Llama2和Llama3模型进行持续的中文能力迭代升级。社区拥有高级工程师团队支持,丰富的社区活动,以及开放共享的合作环境,旨在推动中文自然语言处理技术的发展。
深度学习算法与大模型面试指南,持续更新的面试题目集合。
DeepLearing-Interview-Awesome-2024 是一个开源的面试题目集合项目,专注于深度学习算法和大模型领域的面试准备。该项目由社区成员共同维护,旨在提供最新的面试题目和答案解析,帮助求职者和研究人员深入理解深度学习领域的前沿技术和应用。它包含了丰富的面试题目,覆盖了大语言模型、视觉模型、通用问题等多个方面,是准备深度学习相关职位的宝贵资源。
自动生成Python、Java、TypeScript、JavaScript、Kotlin的人工智能文档/注释,支持GitHub、GitLab、Bitbucket。
Snorkell.ai是一个自动化生成文档的工具,它可以在每次合并拉取请求时自动生成和更新GitHub项目的文档,确保文档始终与代码库保持一致。它支持Python、Java、TypeScript、JavaScript和Kotlin等编程语言,生成人类可读且易理解的文档。
Phi-3 Mini 量化ONNX模型,支持多硬件平台加速推理
Phi-3 Mini是一款轻量级的最先进的开源大模型,构建于用于Phi-2的合成数据和过滤网站数据之上,致力于提供极高质量、推理密集型的数据。该模型经过了严格的增强过程,结合了监督式微调和直接偏好优化,以确保精确遵循指令和强大的安全措施。该仓库提供了Phi-3 Mini的优化ONNX版本,可通过ONNX Runtime在CPU和GPU上进行加速推理,支持服务器、Windows、Linux、Mac等多种平台,并针对每个平台提供最佳精度配置。ONNX Runtime的DirectML支持还可让开发人员在AMD、英特尔和NVIDIA GPU驱动的Windows设备上实现大规模硬件加速。
Meta 新一代开源大型语言模型,性能卓越
Meta Llama 3是Meta公司推出的新一代开源大型语言模型,性能卓越,在多项行业基准测试中表现出色。它可支持广泛的使用场景,包括改善推理能力等新功能。该模型将在未来支持多语种、多模态,提供更长的上下文窗口和整体性能提升。Llama 3秉承开放理念,将被部署在主要云服务、托管和硬件平台上,供开发者和社区使用。
© 2024 AIbase 备案号:闽ICP备08105208号-14