Paper is cheap, show me the explanation.
cover

Learning Invariant Representations for Reinforcement Learning without Reconstruction

这篇论文发表在2021年的ICLR,一作Amy Zhang目前在加州伯克利做博士后,她同时还在脸书AI研究部门担任科学家。论文研究了在强化学习环境下在不使用数据重构(类似autoencoder)方法时,如何得到一个好的环境编码的问题。

April 22, 2022
cover

Too Afraid to Drive: Systematic Discovery of Semantic DoS Vulnerability in Autonomous Driving Planning under Physical-World Attacks

这篇文章发表于今年的NDSS,主要研究了自动驾驶(Autonomous Driving, AD)系统中过于保守策略的漏洞。文章针对AD系统中过于保守的策略,设计了一个自动搜索语义拒绝服务攻击漏洞的方法 PlanFuzz。

April 13, 2022
cover

Back to the Drawing Board: A Critical Evaluation of Poisoning Attacks on Production Federated Learning

这篇论文发表于今年的S&P,对联邦学习在实际应用情况下污染攻击(Poisoning Attacks)的影响进行了测量。一作是麻省大学的博士,他们实验室是搞隐私保护的,包括网络中或者机器学习中的隐私保护,每年在顶会上都有一些文章输出。

April 5, 2022
cover

Soft Actor-Critic: Off-Policy Maximum Entropy Deep Reinforcement Learning with a Stochastic Actor

SAC算法是Tuomas Haarnoja于DeepMind在2018年提出的强化学习算法。无模型深度强化学习在决策和控制任务中应用时会遇到两个挑战:1. 需要大量的样本;2. 收敛性。此算法希望为​解决这两个挑战提供一个好的解决方案。

March 30, 2022
cover

Local and Central Differential Privacy for Robustness and Privacy in Federated Learning

文章发表于今年的NDSS,对联邦学习(Federated Learning, FL)中的本地以及服务端差分隐私问题进行了测量研究。

March 22, 2022
cover

A Distributional Perspective on Reinforcement Learning

这篇文章发表于2017年的ICML,一作是Marc G. Bellemare,现就职于Google Brain。这篇文章主要分析研究如何使用一个分布而不是单个值去进行强化学习(Reinforcement Learning, RL)。

March 15, 2022
cover

Sphinx: Enabling Privacy-Preserving Online Learning over the Cloud

本文已收录于2022年的S&P,一作为香港科技大学的学生。论文为云端在线学习服务提供了一个较为折中的隐私保护方案。

March 10, 2022
cover

Flash Boys 2.0: Frontrunning, Transaction Reordering, and Consensus Instability in Decentralized Exchanges

区块链特别是智能合约一直都是承诺交易的公开透明性。但不幸的是,此承诺远远没有达到要求。表面透明的交易之下,暗流涌动,充斥着各种竞争、攻击。本文研究了区块链系统中的自动套利机器人的行为,并分析了它们对区块链安全的可能影响。

March 2, 2022
cover

DEEPCASE: Semi-Supervised Contextual Analysis of Security Events

该论文基于纯安全事件数据采用无监督的方法对安全事件做分类分级,发表于安全四大顶会S&P2022,一作Thijs van Ede是加州大学圣芭拉分校的博士生。

Feb. 24, 2022
cover

DETER: Denial of Ethereum Txpool sERvices

简介:区块链通常使用交易池来缓存接收到而尚未被包含在区块中的交易。我们知道交易是收取交易费的,而交易费并不固定,由此矿工就可以采用不同的策略来对交易进行排序,以使自己的利益最大化。本文研究了如何利用这些策略的漏洞对以太坊交易池进行拒绝服务攻击。

Feb. 23, 2022
cover

ÐArcher: detecting on-chain-off-chain synchronization bugs in decentralized applications

由于区块链的分布式特性,其上的交易天然存在一定延迟。因此,构建于其上的分布式应用就出现了需要对用户在DApp前端所见的状态与区块链上的状态之间进行同步的问题。本文测试分析了一些DApp中的链上、连下同步问题。

Feb. 16, 2022
cover

Contrastive Learning of Generalized Game Representations

现有的游戏AI中,越来越多地直接使用游戏画面的RGB像素点(图片)来作为游戏的表示。其中卷积神经网络常被用于进行图片处理,以得到压缩后的表征。当前一些通用的特征提取方法在应用到游戏AI时会有一些问题,比如训练计算量太大、在不同游戏间的泛化性差等。对于前一个问题,目前一般采用在预训练模型上进行微调的方法缓解。本文主要关注如何处理后一个问题,也就是泛化性的问题。

Jan. 6, 2022
cover

Using Selective Memoization to Defeat Regular Expression Denial of Service

这篇是今年 Oakland 的文章,介绍了当前许多编程语言的正则表达式库的一个遗留漏洞,并提出了一个新的解决方案。

Dec. 10, 2021
cover

Visually Grounded Reasoning across Languages and Cultures

论文是EMNLP 2021的最佳论文,论文指出了当前视觉-语言数据集的一些问题,发布了一个新的数据集。

Nov. 22, 2021
cover

Warmonger: Inflicting Denial-of-Service via Serverless Functions in the Cloud

本文发表于CCS2021,针对共享资源的云端服务器提出了一种新的杀敌一千自损八百的攻击方式:Warmonger。Warmonger利用了去服务器(serverless)计算平台在不同用户之间共享IP的特点,让第三方内容服务器拒绝响应用户的云端服务。恶意用户可以在共享IP的去服务器平台上对第三方内容服务器发出一些恶意的请求,这样第三方服务器的防火墙就可以将此IP列入黑名单,共享同一IP的其它用户此时就无法访问被攻击的第三方服务器了。本文的攻击模型并不复杂,重点偏重于测量分析。

Oct. 25, 2021
cover

Parameter-exploring policy gradients

本文介绍了一种解决部分可观测马尔可夫问题的一种无模型(model-free)强化学习方法(PGPE)。和一般策略梯度方法不同的是,此方法通过在参数空间中直接进行采样来得到梯度值的估计。PEPG可以降低梯度值估计的方差,让学习过程更加稳定、快速,并且在策略不可导的情况下也可以使用。

Oct. 8, 2021
cover

Zero-Shot Text-to-Image Generation

在文本生成图片的任务中,人们一直致力于在确定的小数据集下寻找更好的网络结构,然而一些假设通常会引入复杂的模型结构或者繁琐的损失函数。本文提出一种简单的自回归策略,利用transformer将文本和图片同等建模,即使在zero shot情况下也可以达到SOTA效果。GPT3证明了在文本上使用大规模参数和大规模数据对模型带来的提高,本文使用120亿参数的模型在2.5亿数据上进行了训练,证明了大规模模型在文本到图像生成任务上也有很好的效果。

Sept. 7, 2021
cover

策略梯度算法专题

在本文中,我们深入了解一下策略梯度算法、工作原理以及一些近年来新提出的改进算法,包含:朴素(vanilla)策略梯度、actor-critic、off-policy 策略梯度、A3C、A2C、DPG、DDPG、D4PG、MADDPG、TRPO、PPO、ACER、ACTKR、SAC、TD3以及SVPG。

Aug. 23, 2021
cover

SquirRL: Automating Attack Analysis on Blockchain Incentive Mechanisms with Deep Reinforcement Learning

本文发表于2021年的NDSS,由CMU和北大的两位学生共同一作。这篇文章对于区块链的运行环境进行了建模,并在此基础上使用强化学习分析了区块链激励机制中的攻击问题。

Aug. 5, 2021
cover

PipeDream: generalized pipeline parallelism for DNN training

使用流水线并行的DNN训练方法可以大大减少通信开销所带来的瓶颈问题。本文提出的Pipedream可以自动对于DNN模型进行自动分割,并且结合了batch内并行优化方法来摊还通信开销。相比于当前最好的方法(论文发表前)来说,PipeDream可以在很多模型及不同硬件上取得最高5.3倍的训练加速。

July 21, 2021