需求人群:
"OpenCity适合交通规划师、数据科学家和机器学习工程师使用,因为它提供了一个强大的工具来分析和预测交通流量,从而帮助改善城市交通管理和规划。"
使用场景示例:
用于预测纽约市的交通流量,帮助交通管理部门优化交通信号灯控制。
分析洛杉矶的出租车需求模式,为出租车公司提供运营策略建议。
在成都进行自行车轨迹分析,为城市规划提供自行车道设计参考。
产品特色:
使用Transformer架构和图神经网络建模交通数据的复杂时空依赖
支持大规模、异构的交通数据集的预训练
零样本学习突破,无需微调即可在多种交通预测任务中表现优异
提供完整的代码、数据和模型权重,方便研究者和开发者使用
支持多种交通相关数据类别,如交通流量、出租车需求、自行车轨迹等
提供详细的使用说明和环境配置指南,便于快速上手
使用教程:
克隆或下载OpenCity代码库
安装所需的Python环境和依赖库
下载并准备预训练数据集,放置在指定目录
根据需要选择合适的预训练配置,执行预训练脚本
使用预训练好的模型进行交通预测任务,或进行进一步的微调
浏览量:5
最新流量情况
月访问量
5.04m
平均访问时长
00:06:44
每次访问页数
5.72
跳出率
37.31%
流量来源
直接访问
52.46%
自然搜索
32.55%
邮件
0.05%
外链引荐
12.51%
社交媒体
2.27%
展示广告
0
截止目前所有流量趋势图
地理流量分布情况
中国
13.03%
德国
3.56%
印度
9.44%
俄罗斯
5.59%
美国
18.14%
开源时空基础模型,用于交通预测
OpenCity是一个开源的时空基础模型,专注于交通预测领域。该模型通过整合Transformer架构和图神经网络,有效捕捉和标准化交通数据中的复杂时空依赖关系,实现对不同城市环境的零样本泛化。它在大规模、异构的交通数据集上进行预训练,学习到丰富、可泛化的表示,能够无缝应用于多种交通预测场景。
基于 Transformer 的预训练语言模型系列
Qwen1.5 是基于 Transformer 架构的解码器语言模型系列,包括不同规模的模型。具有 SwiGLU 激活、注意力 QKV 偏置、组查询注意力等特性。支持多种自然语言和代码。推荐进行后续训练,如 SFT、RLHF 等。定价免费。
谷歌推出的开源预训练语言模型
Gemma-2b是谷歌推出的开源预训练语言模型系列,提供了多个不同规模的变体。它可以生成高质量的文本,广泛应用于问答、摘要、推理等领域。相比其他同类模型,它模型规模较小,可以部署在不同的硬件环境中。Gemma系列追求安全、高效的人工智能技术,使更多研究者和开发者可以接触前沿的语言模型技术。
基于 Transformer 的图像识别模型
Google Vision Transformer 是一款基于 Transformer 编码器的图像识别模型,使用大规模图像数据进行预训练,可用于图像分类等任务。该模型在 ImageNet-21k 数据集上进行了预训练,并在 ImageNet 数据集上进行了微调,具备良好的图像特征提取能力。该模型通过将图像切分为固定大小的图像块,并线性嵌入这些图像块来处理图像数据。同时,模型在输入序列前添加了位置编码,以便在 Transformer 编码器中处理序列数据。用户可以通过在预训练的编码器之上添加线性层进行图像分类等任务。Google Vision Transformer 的优势在于其强大的图像特征学习能力和广泛的适用性。该模型免费提供使用。
开源的专家混合语言模型,具有1.3亿活跃参数。
OLMoE是一个完全开放的、最先进的专家混合模型,具有1.3亿活跃参数和6.9亿总参数。该模型的所有数据、代码和日志都已发布。它提供了论文'OLMoE: Open Mixture-of-Experts Language Models'的所有资源概览。该模型在预训练、微调、适应和评估方面都具有重要应用,是自然语言处理领域的一个里程碑。
生成高质量中文方言语音的大规模文本到语音模型。
Bailing-TTS是由Giant Network的AI Lab开发的大型文本到语音(TTS)模型系列,专注于生成高质量的中文方言语音。该模型采用持续的半监督学习和特定的Transformer架构,通过多阶段训练过程,有效对齐文本和语音标记,实现中文方言的高质量语音合成。Bailing-TTS在实验中展现出接近人类自然表达的语音合成效果,对于方言语音合成领域具有重要意义。
7.8亿参数的双语生成模型
EXAONE-3.0-7.8B-Instruct是LG AI Research开发的一款具有7.8亿参数的双语(英语和韩语)预训练生成模型。模型通过8T的精选token进行预训练,并经过监督式微调和直接偏好优化进行后训练,展现出与同类大小的开放模型相比极具竞争力的基准性能。
3D实例分割的创新方法
SAM-guided Graph Cut for 3D Instance Segmentation是一种利用3D几何和多视图图像信息进行3D实例分割的深度学习方法。该方法通过3D到2D查询框架,有效利用2D分割模型进行3D实例分割,通过图割问题构建超点图,并通过图神经网络训练,实现对不同类型场景的鲁棒分割性能。
开源AI搜索引擎框架,性能媲美Perplexity.ai Pro。
MindSearch是一个基于大型语言模型(LLM)的多智能体网络搜索引擎框架,具有与Perplexity.ai Pro相似的性能。用户可以轻松部署自己的搜索引擎,支持闭源大型语言模型(如GPT、Claude)或开源大型语言模型(如InternLM2.5-7b-chat)。它具备以下特点:能够解决生活中的任何问题,利用网络知识提供深入和广泛的知识库答案;展示详细的解决方案路径,提高最终响应的可信度和可用性;提供优化的UI体验,包括React、Gradio、Streamlit和Terminal等多种接口;动态构建图谱,将用户查询分解为图谱中的原子子问题,并根据WebSearcher的搜索结果逐步扩展图谱。
1T开源多语言大型语言模型
Tele-FLM-1T是一个开源的1T多语言大型语言模型,基于解码器仅Transformer架构,经过约2T tokens的训练。该模型在规模上展现出卓越的性能,有时甚至超越了更大的模型。除了分享模型权重外,还提供了核心设计、工程实践和训练细节,期待对学术和工业社区都有所裨益。
大型语言模型,支持多种参数规模
Meta Llama 3 是 Meta 推出的最新大型语言模型,旨在为个人、创作者、研究人员和各类企业解锁大型语言模型的能力。该模型包含从8B到70B参数的不同规模版本,支持预训练和指令调优。模型通过 GitHub 仓库提供,用户可以通过下载模型权重和分词器进行本地推理。Meta Llama 3 的发布标志着大型语言模型技术的进一步普及和应用,具有广泛的研究和商业潜力。
大型多语言预训练语言模型
Meta Llama 3.1-405B 是由 Meta 开发的一系列大型多语言预训练语言模型,包含8B、70B和405B三种规模的模型。这些模型经过优化的变压器架构,使用监督式微调(SFT)和强化学习与人类反馈(RLHF)进行调优,以符合人类对帮助性和安全性的偏好。Llama 3.1 模型支持多种语言,包括英语、德语、法语、意大利语、葡萄牙语、印地语、西班牙语和泰语。该模型在多种自然语言生成任务中表现出色,并在行业基准测试中超越了许多现有的开源和封闭聊天模型。
7亿参数的语言模型,展示数据整理技术的有效性。
DCLM-Baseline-7B是一个7亿参数的语言模型,由DataComp for Language Models (DCLM)团队开发,主要使用英语。该模型旨在通过系统化的数据整理技术来提高语言模型的性能。模型训练使用了PyTorch与OpenLM框架,优化器为AdamW,学习率为2e-3,权重衰减为0.05,批次大小为2048序列,序列长度为2048个token,总训练token数达到了2.5T。模型训练硬件使用了H100 GPU。
高性能的开源代码模型
Mamba-Codestral-7B-v0.1 是 Mistral AI Team 开发的基于 Mamba2 架构的开源代码模型,性能与最先进的基于 Transformer 的代码模型相当。它在多个行业标准基准测试中表现出色,提供高效的代码生成和理解能力,适用于编程和软件开发领域。
基于预训练的纯视觉变换器提升图像抠图
ViTMatte是一个基于预训练纯视觉变换器(Plain Vision Transformers, ViTs)的图像抠图系统。它利用混合注意力机制和卷积颈部来优化性能与计算之间的平衡,并引入了细节捕获模块以补充抠图所需的细节信息。ViTMatte是首个通过简洁的适配释放ViT在图像抠图领域潜力的工作,继承了ViT在预训练策略、简洁的架构设计和灵活的推理策略等方面的优势。在Composition-1k和Distinctions-646这两个最常用的图像抠图基准测试中,ViTMatte达到了最先进的性能,并以较大优势超越了先前的工作。
快速且内存高效的精确注意力机制
FlashAttention是一个开源的注意力机制库,专为深度学习中的Transformer模型设计,以提高计算效率和内存使用效率。它通过IO感知的方法优化了注意力计算,减少了内存占用,同时保持了精确的计算结果。FlashAttention-2进一步改进了并行性和工作分配,而FlashAttention-3针对Hopper GPU进行了优化,支持FP16和BF16数据类型。
轻量级大语言模型,专注于文本生成。
Index-1.9B-Pure是Index系列模型中的轻量版本,专为文本生成而设计。它在2.8T的中英文语料上进行了预训练,与同等级模型相比,在多个评测基准上表现领先。该模型特别过滤了所有指令相关数据,以验证指令对benchmark的影响,适用于需要高质量文本生成的领域。
基于19亿参数的对话生成模型
Index-1.9B-Chat是一个基于19亿参数的对话生成模型,它通过SFT和DPO对齐技术,结合RAG实现fewshots角色扮演定制,具有较高的对话趣味性和定制性。该模型在2.8T中英文为主的语料上预训练,并且在多个评测基准上表现领先。
大型视频语言模型,用于视觉问答和视频字幕生成。
VideoLLaMA2-7B-16F-Base是由DAMO-NLP-SG团队开发的大型视频语言模型,专注于视频问答(Visual Question Answering)和视频字幕生成。该模型结合了先进的空间-时间建模和音频理解能力,为多模态视频内容分析提供了强大的支持。它在视觉问答和视频字幕生成任务上展现出卓越的性能,能够处理复杂的视频内容并生成准确的描述和答案。
基于大规模数据的高质量信息抽取模型
雅意信息抽取大模型(YAYI-UIE)由中科闻歌算法团队研发,是一款在百万级人工构造的高质量信息抽取数据上进行指令微调的模型。它能够统一训练信息抽取任务,包括命名实体识别(NER)、关系抽取(RE)和事件抽取(EE),覆盖了通用、安全、金融、生物、医疗、商业等多个场景的结构化抽取。该模型的开源旨在促进中文预训练大模型开源社区的发展,并通过开源共建雅意大模型生态。
新一代多语言预训练模型,性能卓越。
Qwen2是一系列经过预训练和指令调整的模型,支持多达27种语言,包括英语和中文。这些模型在多个基准测试中表现出色,特别是在编码和数学方面有显著提升。Qwen2模型的上下文长度支持高达128K个token,适用于处理长文本任务。此外,Qwen2-72B-Instruct模型在安全性方面与GPT-4相当,显著优于Mistral-8x22B模型。
开源多模态预训练模型,具备中英双语对话能力。
GLM-4V-9B是智谱AI推出的新一代预训练模型,支持1120*1120高分辨率下的中英双语多轮对话,以及视觉理解能力。在多模态评测中,GLM-4V-9B展现出超越GPT-4-turbo-2024-04-09、Gemini 1.0 Pro、Qwen-VL-Max和Claude 3 Opus的卓越性能。
新一代开源预训练模型,支持多轮对话和多语言。
GLM-4-9B-Chat-1M 是智谱 AI 推出的新一代预训练模型,属于 GLM-4 系列的开源版本。它在语义、数学、推理、代码和知识等多方面的数据集测评中展现出较高的性能。该模型不仅支持多轮对话,还具备网页浏览、代码执行、自定义工具调用和长文本推理等高级功能。支持包括日语、韩语、德语在内的26种语言,并特别推出了支持1M上下文长度的模型版本,适合需要处理大量数据和多语言环境的开发者和研究人员使用。
新一代多语言预训练模型,支持长文本和代码执行。
GLM-4-9B-Chat是智谱AI推出的新一代预训练模型GLM-4系列中的开源版本,具备多轮对话、网页浏览、代码执行、自定义工具调用和长文本推理等高级功能。支持包括日语、韩语、德语在内的26种语言,并且推出了支持1M上下文长度的模型。
开源多语言多模态对话模型
GLM-4系列是智谱AI推出的新一代预训练模型,包括GLM-4-9B、GLM-4-9B-Chat、GLM-4-9B-Chat-1M和GLM-4V-9B。这些模型在语义理解、数学推理、代码执行等方面表现出色,支持多达26种语言,并具备网页浏览、代码执行等高级功能。GLM-4V-9B模型还具备高分辨率的视觉理解能力,适合多模态应用场景。
生成高分辨率和长视频的端到端解决方案
EasyAnimate 是一个基于 transformer 架构的流水线,可以用于生成 AI 照片和视频,训练基线模型和 Lora 模型以用于 Diffusion Transformer。支持直接从预训练的 EasyAnimate 模型进行预测,生成不同分辨率、约 6 秒(24fps)的视频。用户还可以训练自己的基线模型和 Lora 模型以执行特定风格转换。
第二代多模态预训练对话模型
CogVLM2是由清华大学团队开发的第二代多模态预训练对话模型,它在多个基准测试中取得了显著的改进,支持8K内容长度和1344*1344的图像分辨率。CogVLM2系列模型提供了支持中文和英文的开源版本,能够与一些非开源模型相媲美的性能。
低代码生成AI应用程序的生成性AI RAG工具包。
create-tsi是一个生成性AI RAG(Retrieval-Augmented Generation)工具包,用于低代码生成AI应用程序。它利用LlamaIndex和T-Systems在Open Telekom Cloud上托管的大型语言模型(LLMs),简化了AI应用程序的创建过程,使其变得快捷、灵活。用户可以使用create-tsi生成聊天机器人、编写代理并针对特定用例进行定制。
一种用于图像和文本数据的先进机器学习模型,专注于数据质量和透明度。
MetaCLIP是一个开源的机器学习模型,用于图像和文本的联合表示学习。它通过一个简单算法对CLIP数据进行筛选,不依赖于先前模型的过滤,从而提高了数据的质量和透明度。MetaCLIP的主要贡献包括无过滤的数据筛选、透明的训练数据分布、可扩展的算法和标准化的CLIP训练设置。该模型强调数据质量的重要性,并提供预训练模型,以支持研究人员和开发者进行控制实验和公平比较。
SpaceByte是一种新的字节级解码架构,避免了Tokenization的缺陷。
SpaceByte是一种全新的字节级解码架构,旨在解决大型语言模型中广泛使用的Tokenization技术所带来的一些弊端。Tokenization虽能显著提升模型性能,但也存在诸多缺陷,如引入性能偏差、增加对抗攻击脆弱性、降低字符级建模效果及增加建模复杂度等。SpaceByte在保留Tokenizer的优势基础上,有效解决了上述缺陷。它使用字节级Transformer作为基础,并在模型层次中间插入更大的Transformer块,尤其是在遇到空格等通常表示单词边界的字节时。该架构在相同的训练和推理计算资源预算下,不但超越了其他字节级模型,甚至可以与Tokenization的Transformer模型取得相当的性能。
© 2024 AIbase 备案号:闽ICP备08105208号-14