需求人群:
Moonvalley 适用于广告制作、影视制作、个人创作等场景,用户可以通过简单的文本提示,快速生成符合自己想法的高质量视频和动画。
使用场景示例:
一个女孩在海边看日落
一个拳击手在擂台上跳舞
一个考古学家在发掘古墓
产品特色:
支持各种视觉效果的视频生成
语音到视频转换
精确控制视频长度、样式等参数
浏览量:1316
最新流量情况
月访问量
154.29k
平均访问时长
00:02:14
每次访问页数
2.82
跳出率
58.11%
流量来源
直接访问
32.75%
自然搜索
41.80%
邮件
0
外链引荐
8.69%
社交媒体
16.77%
展示广告
0
截止目前所有流量趋势图
地理流量分布情况
美国
18.32%
印度
14.92%
中国
7.72%
英国
5.66%
巴西
4.45%
助力安全团队以AI速度保护企业,加快响应
Microsoft Copilot for Security是业界首个生成式AI解决方案,帮助安全和IT专业人员发现别处忽视的问题、加快工作进展、增强团队专业知识。它通过微软每天处理的780多万亿安全信号训练,结合大型语言模型提供个性化洞见和后续指导。使用Copilot,您可以以AI的速度和规模保护业务,转变安全运营。该产品于2024年4月1日全球上市,提供按需付费定价,可与现有微软安全产品集成,为组织带来更大的可见性、控制力和治理能力。
使用AI生成SVG向量图像
Vecentor是一个基于人工智能技术的SVG生成工具,能够帮助用户快速生成创意向量图像。它使用了生成式AI模型和大型语言模型,提供了多种默认风格的可编辑SVG图像,并可用于编码项目。
Oracle云平台的生成式AI服务
Oracle Generative AI Service是一个全托管的生成式AI服务,可以轻松地将多功能的语言模型集成到各种用例中,包括写作辅助、摘要生成和聊天机器人等。该服务基于Oracle Cloud Infrastructure,提供高性能、面向企业的模型,支持高效的微调和多个用例,安全可靠的企业级的数据管理、安全与管控。
1.6亿参数稳定语言模型
Stable LM 2 1.6B是一个1.6亿参数的小型多语言稳定语言模型,支持英语、西班牙语、德语、意大利语、法语、葡萄牙语和荷兰语。该模型体积小、速度快,降低了硬件门槛,让更多开发者参与生成式AI生态系统。我们不仅发布预训练及调参版本,还首次发布预训练冷却前的最后检查点,包括优化器状态,以帮助开发者顺利进行微调和实验。
视频生成的大型语言模型
VideoPoet 是一个大型语言模型,可将任何自回归语言模型转换为高质量视频生成器。它可以根据输入的文本描述生成视频,无需任何视觉或音频指导。VideoPoet 能够生成各种类型的视频,包括文本到视频、图像到视频、视频编辑、风格化和修复等。它可以用于电影制作、动画片、广告制作、虚拟现实等领域。VideoPoet 具有高质量的视频生成能力,并且可以灵活应用于不同的场景。
微软推出的针对初学者的生成式AI课程
该课程包含12节内容,从生成式AI和语言模型的基础知识讲起,逐步帮助学习者掌握使用OpenAI等平台进行应用开发的核心技能,如提示工程、构建聊天机器人、语义搜索等,最后还提供了一些案例用于实践检验。整个课程免费提供,适合想要快速上手生成式AI开发的初学者学习。
Windows AI Studio简化生成式AI应用程序开发
Windows AI Studio通过汇集来自Azure AI Studio和其他目录(如Hugging Face)的尖端AI开发工具和模型,简化了生成式AI应用程序的开发。它使开发人员能够对本地应用程序中使用的最新小语言模型(SLMs)进行微调、定制和部署。它提供端到端的引导式工作区设置,包括模型配置UI和引导式步骤,以微调流行的SLMs(如Phi)和最先进的模型(如Llama 2和Mistral)。
IBM watsonx Code Assistant利用生成式AI加速代码生成,提高开发人员的生产力。
IBM watsonx Code Assistant利用生成式AI加速开发,同时保持信任、安全和合规性的核心原则。开发人员和IT运营商可以加速应用程序现代化工作,并生成自动化来快速扩展IT环境。watsonx Code Assistant由IBM的Granite基础模型提供支持,这些模型包括针对代码的最先进的大语言模型,旨在通过基于自然语言请求或现有源代码的AI生成建议来帮助IT团队生成高质量代码。
复杂长期任务的视觉规划
Video Language Planning(VLP)是一种算法,通过训练视觉语言模型和文本到视频模型,实现了对复杂长期任务的视觉规划。VLP接受长期任务指令和当前图像观察作为输入,并输出一个详细的多模态(视频和语言)规划,描述如何完成最终任务。VLP能够在不同的机器人领域中合成长期视频规划,从多物体重新排列到多摄像头双臂灵巧操作。生成的视频规划可以通过目标条件策略转化为真实机器人动作。实验证明,与之前的方法相比,VLP显著提高了长期任务的成功率。
为企业提供生成式AI解决方案
A2O Corpus是一款生成式AI聊天机器人解决方案,利用大规模语言模型(LLM)的强大功能,可以将您的内容(文件、网站等)与聊天机器人集成,以对话形式轻松回答用户的查询。它还提供强大的向量搜索功能,能够快速找到企业信息中的关键信息并形成答案。
无代码构建和部署生成式AI应用
通过无缝且安全地将自定义的大型语言模型(例如ChatGPT)纳入个人或团队的工作流中,构建和部署自定义的生成式AI工作流,提高客户参与度和团队/个人效率。定价和定位详见官网。
Aloe是一款专为医疗领域设计的高性能语言模型,提供先进的文本生成和对话能力。
Aloe是由HPAI开发的一款医疗领域的语言模型,基于Meta Llama 3 8B模型进行优化。它通过模型融合和先进的提示策略,达到了与其规模相匹配的最先进水平。Aloe在伦理和事实性指标上得分较高,这得益于红队和对齐工作的结合。该模型提供了医疗特定的风险评估,以促进这些系统的安全使用和部署。
尽情体验LawBotica的法律AI助手的强大功能。轻松审查、总结和与法律文件交流。立即尝试!
LawBotica是一款革命性的法律工具,通过自动化摘要生成、制作案件时间线、提供全面的尽职调查文件审核、交互式对话和协作工作空间,将数月的工作转化为高效的几分钟。它通过定制的法律语言模型实现智能文档摘要、聊天和合作功能,并提供详细的分析、关键见解和实用建议。
Fugaku-LLM是一个专注于文本生成的人工智能模型。
Fugaku-LLM是一个由Fugaku-LLM团队开发的人工智能语言模型,专注于文本生成领域。它通过先进的机器学习技术,能够生成流畅、连贯的文本,适用于多种语言和场景。Fugaku-LLM的主要优点包括其高效的文本生成能力、对多种语言的支持以及持续的模型更新,以保持技术领先。该模型在社区中拥有广泛的应用,包括但不限于写作辅助、聊天机器人开发和教育工具。
一个由LLMs驱动的智能Siri,无需专用硬件即可使用。
Siri-Ultra是一个基于云的智能助手,可以在Cloudflare Workers上运行,并且可以与任何大型语言模型(LLM)配合使用。它利用了LLaMA 3模型,并且通过自定义函数调用来获取天气数据和在线搜索。这个项目允许用户通过Apple Shortcuts来使用Siri,从而消除了对专用硬件设备的需求。
一款具有128k有效上下文长度的70B参数的大型语言模型。
Llama-3-Giraffe-70B-Instruct是Abacus.AI推出的一款大型语言模型,它通过PoSE和动态NTK插值的训练方法,具有更长的有效上下文长度,能够处理大量的文本数据。该模型在训练中使用了约1.5B个token,并且通过适配器转换技术,将Llama-3-70B-Base模型的适配器应用到Llama-3-Giraffe-70B-Instruct上,以提高模型的性能。
构建高级语音AI,由LLM提供支持,实现人类般的交互体验。
Retell AI是一个强大的AI代理构建平台,允许用户快速构建和测试复杂的工作流程,并通过电话呼叫、网络呼叫或任何其他地方部署它们。该平台支持使用任何大型语言模型(LLM),并提供了实时的交互体验,包括人类般的声音和语音克隆支持。Retell AI的主要优点包括低延迟、高稳定性和符合HIPAA标准的安全性。
一个完全开源的大型语言模型,提供先进的自然语言处理能力。
MAP-NEO是一个完全开源的大型语言模型,它包括预训练数据、数据处理管道(Matrix)、预训练脚本和对齐代码。该模型从零开始训练,使用了4.5T的英文和中文token,展现出与LLaMA2 7B相当的性能。MAP-NEO在推理、数学和编码等具有挑战性的任务中表现出色,超越了同等规模的模型。为了研究目的,我们致力于实现LLM训练过程的完全透明度,因此我们全面发布了MAP-NEO,包括最终和中间检查点、自训练的分词器、预训练语料库以及高效稳定的优化预训练代码库。
Gemma 2B模型,支持10M序列长度,优化内存使用,适用于大规模语言模型应用。
Gemma 2B - 10M Context是一个大规模的语言模型,它通过创新的注意力机制优化,能够在内存使用低于32GB的情况下处理长达10M的序列。该模型采用了循环局部注意力技术,灵感来源于Transformer-XL论文,是处理大规模语言任务的强大工具。
开源的、专为大型语言模型优化的网页爬虫与抓取工具。
Crawl4AI是一个强大的、免费的网页爬取服务,旨在从网页中提取有用信息,并使其对大型语言模型(LLMs)和AI应用可用。它支持高效的网页爬取,提供对LLM友好的输出格式,如JSON、清理过的HTML和Markdown,支持同时爬取多个URL,并完全免费且开源。
为企业提供开源、灵活的AI模型开发、测试和运行平台。
Red Hat Enterprise Linux AI 是一个基于开源的模型平台,旨在无缝地开发、测试和运行企业级应用的大型语言模型(LLMs)。它结合了开源许可的IBM Granite LLMs、InstructLab模型对齐工具、Red Hat Enterprise Linux的可启动镜像以及Red Hat提供的技术支持和模型知识产权保障。该平台支持跨混合云环境的可移植性,并能与Red Hat OpenShift® AI集成,进一步推进企业AI开发、数据管理和模型治理。
提升大型语言模型解决数学问题的能力
ChatGLM-Math 是一个基于自我批评流程定制的数学问题解决模型,旨在提高大型语言模型(LLMs)在数学问题解决方面的能力。该模型通过训练一个通用的Math-Critique模型来提供反馈信号,并采用拒绝采样微调和直接偏好优化来增强LLM的数学问题解决能力。它在学术数据集和新创建的挑战性数据集MathUserEval上进行了实验,显示出在保持语言能力的同时,显著提升了数学问题解决能力。
使用Kolmogorov-Arnold网络实现的预训练生成式变换器(GPTs)的语言模型
kan-gpt是一个基于PyTorch的Generative Pre-trained Transformers (GPTs) 实现,它利用Kolmogorov-Arnold Networks (KANs) 进行语言建模。该模型在文本生成任务中展现出了潜力,特别是在处理长距离依赖关系时。它的重要性在于为自然语言处理领域提供了一种新的模型架构,有助于提升语言模型的性能。
Prompto是一个开源的网络应用程序,旨在使与LLM的交互简单高效。
Prompto是一个开源的网页应用程序,旨在使与大型语言模型(LLMs)的交互简单高效。它可以轻松切换不同的LLMs,通过调整温度设置来调整LLM的创造力和风险水平,提供聊天机器人界面和笔记本界面,可以创建常用提示的模板,并且在浏览器中运行,确保流畅响应的体验。所有设置和聊天记录仅存储在浏览器的本地存储中,保护用户隐私。
在浏览器中尝试Cleanlab的可信任语言模型(TLM)
TLM Playground是Cleanlab的一个工具,用于在浏览器中使用可信任语言模型(TLM)。它提供了一个交互式界面,用户可以输入文本并获得模型生成的响应。TLM是一种基于深度学习的语言模型,它可以用于生成自然语言文本,例如回答问题、翻译、文本摘要等。
一个用于创意写作的大型语言模型,具有出色的写作风格。
Meta-Llama-3-120B-Instruct 是一个基于 Meta-Llama-3-70B-Instruct 通过 MergeKit 自我合并的大型语言模型。它在创意写作方面表现出色,但在其他任务上可能存在挑战。该模型使用 Llama 3 聊天模板,默认上下文窗口为 8K,可以通过绳索theta扩展。模型在生成文本时有时会出现错别字,并且喜欢使用大写字母。
一款高效经济的语言模型,具有强大的专家混合特性。
DeepSeek-V2是一个由236B参数构成的混合专家(MoE)语言模型,它在保持经济训练和高效推理的同时,激活每个token的21B参数。与前代DeepSeek 67B相比,DeepSeek-V2在性能上更强,同时节省了42.5%的训练成本,减少了93.3%的KV缓存,并提升了最大生成吞吐量至5.76倍。该模型在8.1万亿token的高质量语料库上进行了预训练,并通过监督式微调(SFT)和强化学习(RL)进一步优化,使其在标准基准测试和开放式生成评估中表现出色。
© 2024 AIbase 备案号:闽ICP备2023012347号-1