爱吃猫的鱼

爱吃猫的鱼
[本]通信工程@河海大学 & [硕]CS@清华大学
这个人很懒,他什么也没有写!
Issued On Oct. 10, 2023, 4:49 p.m.
Summary: 使用LLM(large language model, 大语言模型)来构建智能体的核心部件是一个非常酷的概念。验证此概念的一些应用,比如:AutoGPT、GPT-Engineer以及BabyAGI等,都给出了令人鼓舞的结果。LLM的潜力不会局限于文本重写优化或者写小说、发言稿和程序,它也可以用于构建一个强大的、解决一般问题的框架。
1190
0
Issued On Nov. 21, 2022, 2:58 p.m.
Summary: 在强化学习中,探索与利用是一个非常重要的主题。我们希望智能体可以尽可能快地找到最佳解决方案。而同时,在没有经过足够探索的情况所获取到的策略可能很糟糕。它很有可能是一个局部最优方案或者是一个失败的方案。以最大回报率为优化目标的现代强化学习算法可以非常高效地实施“利用”这一过程,但是,如何进行探索一直是一个开放讨论的话题。
1781
0
Issued On Sept. 2, 2022, 2:53 a.m.
Summary: 据图片来生成文本的任务(比如图片描述/视觉问答等)已经被研究了好些年。传统解决这类问题的系统通常会将一个对象检测网络用作一个视觉特征编码器,而后再利用一个解码器将特征向量解码为文字。由于当前此类研究数量太大,在这里我仅关注这其中的一类解决视觉语言任务的方法。
2210
0
Issued On April 29, 2022, 3:15 a.m.
Summary: 这是有限样本学习的第三方部分内容。我们考虑两种生成训练数据的方法:数据增强与生成新数据。
1845
0
Issued On March 11, 2022, 5:16 p.m.
Summary: 2022 年ICRL 论文结果公布,根据我爬到的数据,最终投稿的共有2658篇论文,接收1095篇论文,接收率高达41.2%。(不得不怀疑一下灌水质量)
13662
0
Issued On March 7, 2022, 10:34 p.m.
Summary: DQN论文是 DeepMind 的研究人员在2013年发表的。一作作者Volodymyr Mnih博士毕业于多伦多大学,对人工智能领域特别是强化学习有杰出贡献。DQN的论文首次使用卷机神经网络直接处理游戏画面来进行Atari游戏的控制。
3894
0
Issued On March 4, 2022, 6:43 p.m.
Summary: 这是有限样本学习的第二部分内容。这次,我们允许使用有限的预算来进行人工打标签的工作。由于预算有限,我们必须非常谨慎地去选取待标记样本。
13345
0
Issued On Feb. 19, 2022, 12:07 a.m.
Summary: 本文给出了pytorch里面支持的所有二十几种激活函数的可视化作图。
6540
0
Issued On Dec. 23, 2021, 4:45 p.m.
Summary: 简介在监督学习中,高质量的标签是任务性能的保障。然而,给大量的数据样本打标签的代价是非常昂贵的。由此,机器学习中诞生了一些新的范式,专门用于解决在标签非常缺乏的情况下的学习问题。在这些范式中,半监督学习是一个可选方案(半监督学习仅需依赖很少部分打过标签的数据+大量无标签数据)。
6348
0
Issued On Nov. 9, 2021, 11:34 p.m.
Summary: 对比学习(Contrastive Learning)的主要思想是让相似样本表征间的距离相近,而差别很大样本表征间的距离较远。对比学习在监督学习和非监督学习中都可以使用,在许多的计算机视觉和自然语言处理相关的任务中都有很好的性能表现。
4845
0

Issued On Oct. 10, 2023, 4:49 p.m.
Summary: 使用LLM(large language model, 大语言模型)来构建智能体的核心部件是一个非常酷的概念。验证此概念的一些应用,比如:AutoGPT、GPT-Engineer以及BabyAGI等,都给出了令人鼓舞的结果。LLM的潜力不会局限于文本重写优化或者写小说、发言稿和程序,它也可以用于构建一个强大的、解决一般问题的框架。
1190
0
Issued On Nov. 21, 2022, 2:58 p.m.
Summary: 在强化学习中,探索与利用是一个非常重要的主题。我们希望智能体可以尽可能快地找到最佳解决方案。而同时,在没有经过足够探索的情况所获取到的策略可能很糟糕。它很有可能是一个局部最优方案或者是一个失败的方案。以最大回报率为优化目标的现代强化学习算法可以非常高效地实施“利用”这一过程,但是,如何进行探索一直是一个开放讨论的话题。
1781
0
Issued On Sept. 2, 2022, 2:53 a.m.
Summary: 据图片来生成文本的任务(比如图片描述/视觉问答等)已经被研究了好些年。传统解决这类问题的系统通常会将一个对象检测网络用作一个视觉特征编码器,而后再利用一个解码器将特征向量解码为文字。由于当前此类研究数量太大,在这里我仅关注这其中的一类解决视觉语言任务的方法。
2210
0
Issued On April 29, 2022, 3:15 a.m.
Summary: 这是有限样本学习的第三方部分内容。我们考虑两种生成训练数据的方法:数据增强与生成新数据。
1845
0
Issued On March 11, 2022, 5:16 p.m.
Summary: 2022 年ICRL 论文结果公布,根据我爬到的数据,最终投稿的共有2658篇论文,接收1095篇论文,接收率高达41.2%。(不得不怀疑一下灌水质量)
13662
0
Issued On March 7, 2022, 10:34 p.m.
Summary: DQN论文是 DeepMind 的研究人员在2013年发表的。一作作者Volodymyr Mnih博士毕业于多伦多大学,对人工智能领域特别是强化学习有杰出贡献。DQN的论文首次使用卷机神经网络直接处理游戏画面来进行Atari游戏的控制。
3894
0
Issued On March 4, 2022, 6:43 p.m.
Summary: 这是有限样本学习的第二部分内容。这次,我们允许使用有限的预算来进行人工打标签的工作。由于预算有限,我们必须非常谨慎地去选取待标记样本。
13345
0
Issued On Feb. 19, 2022, 12:07 a.m.
Summary: 本文给出了pytorch里面支持的所有二十几种激活函数的可视化作图。
6540
0
Issued On Dec. 23, 2021, 4:45 p.m.
Summary: 简介在监督学习中,高质量的标签是任务性能的保障。然而,给大量的数据样本打标签的代价是非常昂贵的。由此,机器学习中诞生了一些新的范式,专门用于解决在标签非常缺乏的情况下的学习问题。在这些范式中,半监督学习是一个可选方案(半监督学习仅需依赖很少部分打过标签的数据+大量无标签数据)。
6348
0
Issued On Nov. 9, 2021, 11:34 p.m.
Summary: 对比学习(Contrastive Learning)的主要思想是让相似样本表征间的距离相近,而差别很大样本表征间的距离较远。对比学习在监督学习和非监督学习中都可以使用,在许多的计算机视觉和自然语言处理相关的任务中都有很好的性能表现。
4845
0