-
5有没有大佬推荐一个效果不错的图文检索模型,训练的数据就一百多MB这样子的小数据集
-
1读研方向是多模态学习,但我深度学习和机器学习的基础都不是很牢固,看了好几遍书和b站上的视频,还是感觉没看懂,有没有大佬教我怎么学,有推荐的路线和相关书籍吗?
-
2😨😨求大佬
-
4求,最近boss让做一下图像描述,image caption,主要是boss要中文的,大佬们有什么模型和项目推荐吗?
-
2如题,目前没找到有类似的工作,吧友们有人看到过么
-
1我想问下多模态该怎么学习啊,我现在关于目标检测和分割之类的差不多都会了,学习多模态是不是还得学习语言方面的内容呀。 还有就是我看现在多模态基本都是与大模型绑定的,如果我只是想用多模态来识别一到两种类别的话,有没有什么模型推荐的
-
6我如何从dataloader同时取几个不同的数据集,且保证shuffle是ture,而且这几个数据集取出的数据的标签一样呢?
-
2开源的 SD3 Medium 模型: 1)基础模型 1+3:主模型:sd3_medium 文本编码器:clip_g、clip_l、t5xxl t5xxl可不使用。 2)融合了文本编码器的模型 2 个: 无T5:sd3_medium_incl_clips = sd3_medium + clip_g + clip_l 有T5: sd3_medium_incl_clips_t5xxlfp8 = sd3_medium + clip_g + clip_l + t5xxl 尺寸是512*512
-
1想问各位大佬知不知道内地有哪些研究多模态大模型的高校或研究所招收硕士研究生,小弟想考过去,最好是考11408的
-
1弟子有一事相求! 弟子是人工智能专业研0小学生,导师给布置了两项任务和方向,对此弟子有一事不明。 (第一,考虑应用于边缘设备的轻量化模型研究; 第二,后续重点考虑多源设备协同和边缘设备的多模态融合。) 1.”应用于边缘设备的轻量化模型研究“这东西是干啥的?网上也查找不到相关资料。 2.弟子比较想走多模态融合,但是现在刚学完python基础,想问问各位老师,我后面的学习路径应该学什么知识呢。谢谢各位大牛子老师!
-
0
-
6
-
5有大佬知道yolov8多模态如何实现,求求告诉我
-
1
-
1Claude3分为大、中、小三个尺寸的模型,其中大型模型官方自称超越GPT4(claude系列确实是唯一有资格与GPT系列较量的模型),中型模型接近GPT4,并且可以无需会员体验。
-
1
-
2hxdm多模态怎么学习啊,直接看论文也不太懂,网上也找不到好的基础课程,研一好迷茫。
-
2有竞争力的大语言模型,有超越claude的潜力,Mistral的小型版本已开源,但是Mistral-medium暂未开源。 测试体验来看,效果能碾压90%的大语言模型,而且上下文达到了32k。 美中不足的是重复性损失很低,或者没有设置重复性损失,导致写故事很容易反反复复出现相同的内容,在同一对话内写的内容很同质化。应当和gpt一样抑制重复内容的输出会好很多。
-
16
-
1
-
8
-
1
-
4
-
18
-
1
-
1
-
2
-
1
-
1新的开源可商用大语言模型包括ChatGLM2和百川baichuan-13B,这两个模型都良好支持中文,可以通过中文提问就能获取较好的回答。 新的开源大模型另有llama2,这一个模型英文训练量占了90%,对中文的支持挺一般的。 新的非开源大语言模型有Claude2,中文支持度良好,有超级长的上下文长度,完全能把一整篇文章放进去提问,回答质量优于chatGPT,弱于GPT4。
-
2
-
2
-
2DeepFloyd IF开放dreambooth和lora的训练了,现在可以自己本地尝试训练模型或lora了。 DeepFloyd IF是一个开源的AI绘画模型,与大名鼎鼎的绘画模型Stable Diffusion(简称SD)是同一家公司开源的,但DeepFloyd IF与其他绘画模型有着非常大的区别,DeepFloyd IF在像素空间工作。与潜空间扩散模型(如Stable Diffusion)不同,扩散是在像素级别实现的。Stable Diffusion是从一张噪点图来生成同等大小的图片,而DeepFloyd IF是先生成一张64*64的小图片,再像素扩散生成一张256*256的中
-
0
-
3
-
2
-
1
-
3这是一篇论文,介绍了一个比思维链更强的大语言模型prompt方法,能够在解决高难度数学问题上表现比思维链更佳。题为Progressive-Hint Prompting Improves Reasoning in Large Language Models,提出 Progressive-Hint Prompting (PHP,注意这个PHP不是编程语言,这是这个方法的缩写),在 PHP 框架下,Large Language Model (LLM) 能够利用前几次生成的推理答案作为之后推理的提示,逐步靠近最终的正确答案。 使用 PHP方法: 1.问题能够和推理答案进行合并,形成新的问题;2.模型可以处理
-
6
-
5
-
0
-
4
-
1
-
1
-
1
-
0
-
1
-
7