Paper is cheap, show me the explanation.
cover

BadEncoder: Backdoor Attacks to Pre-trained Encoders in Self-Supervised Learning

​这篇论文发表于今年的S&P,一作Jinyuan Jia目前在杜克大学攻读博士学位,他在安全顶会上已发表多篇文章,其所在实验室主要研究隐私与安全。本文的BadEncoder 提出了一种新的针对自监督学习(self-supervised learning)的后门攻击。

July 18, 2022
cover

Evolution Strategies as a Scalable Alternative to Reinforcement Learning

这篇论文由Openai研究人员在2017年发布于arXiv上。论文改进了进化算法在强化学习中的应用,论文提出的方法极大地降低了不同进程间的通信量,让进化算法可以大规模并行。

June 15, 2022
cover

Bad Characters: Imperceptible NLP Attacks

这篇论文发表于2021年的S&P,一作 Nicholas Boucher 是剑桥大学的博士。这篇文章提出了一种针对NLP的新的攻击方式。此攻击通过对任务输入字符编码的修改,来让NLP服务的计算时间延长或者让服务给出错误的结果。它的一大特点就是经过攻击修改后的文字编码在经过渲染(比如浏览器、编辑器等)后,看起来和原本的文本是一样的(或基本差不多)。

June 8, 2022
cover

Conservative Q-Learning for Offline Reinforcement Learning

这篇论文发布于2020年的NIPS,一作为伯克利人工智能实验室的研究人员 Aviral Kumar。论文旨在解决离线(offline)强化学习中由分布漂移(distributional shift)导致的价值函数超估(overestimation)问题。

June 1, 2022
cover

Learning Invariant Representations for Reinforcement Learning without Reconstruction

这篇论文发表在2021年的ICLR,一作Amy Zhang目前在加州伯克利做博士后,她同时还在脸书AI研究部门担任科学家。论文研究了在强化学习环境下在不使用数据重构(类似autoencoder)方法时,如何得到一个好的环境编码的问题。

April 22, 2022
cover

Too Afraid to Drive: Systematic Discovery of Semantic DoS Vulnerability in Autonomous Driving Planning under Physical-World Attacks

这篇文章发表于今年的NDSS,主要研究了自动驾驶(Autonomous Driving, AD)系统中过于保守策略的漏洞。文章针对AD系统中过于保守的策略,设计了一个自动搜索语义拒绝服务攻击漏洞的方法 PlanFuzz。

April 13, 2022
cover

Back to the Drawing Board: A Critical Evaluation of Poisoning Attacks on Production Federated Learning

这篇论文发表于今年的S&P,对联邦学习在实际应用情况下污染攻击(Poisoning Attacks)的影响进行了测量。一作是麻省大学的博士,他们实验室是搞隐私保护的,包括网络中或者机器学习中的隐私保护,每年在顶会上都有一些文章输出。

April 5, 2022
cover

Soft Actor-Critic: Off-Policy Maximum Entropy Deep Reinforcement Learning with a Stochastic Actor

SAC算法是Tuomas Haarnoja于DeepMind在2018年提出的强化学习算法。无模型深度强化学习在决策和控制任务中应用时会遇到两个挑战:1. 需要大量的样本;2. 收敛性。此算法希望为​解决这两个挑战提供一个好的解决方案。

March 30, 2022
cover

Local and Central Differential Privacy for Robustness and Privacy in Federated Learning

文章发表于今年的NDSS,对联邦学习(Federated Learning, FL)中的本地以及服务端差分隐私问题进行了测量研究。

March 22, 2022
cover

A Distributional Perspective on Reinforcement Learning

这篇文章发表于2017年的ICML,一作是Marc G. Bellemare,现就职于Google Brain。这篇文章主要分析研究如何使用一个分布而不是单个值去进行强化学习(Reinforcement Learning, RL)。

March 15, 2022
cover

Sphinx: Enabling Privacy-Preserving Online Learning over the Cloud

本文已收录于2022年的S&P,一作为香港科技大学的学生。论文为云端在线学习服务提供了一个较为折中的隐私保护方案。

March 10, 2022
cover

Flash Boys 2.0: Frontrunning, Transaction Reordering, and Consensus Instability in Decentralized Exchanges

区块链特别是智能合约一直都是承诺交易的公开透明性。但不幸的是,此承诺远远没有达到要求。表面透明的交易之下,暗流涌动,充斥着各种竞争、攻击。本文研究了区块链系统中的自动套利机器人的行为,并分析了它们对区块链安全的可能影响。

March 2, 2022
cover

DEEPCASE: Semi-Supervised Contextual Analysis of Security Events

该论文基于纯安全事件数据采用无监督的方法对安全事件做分类分级,发表于安全四大顶会S&P2022,一作Thijs van Ede是加州大学圣芭拉分校的博士生。

Feb. 24, 2022
cover

DETER: Denial of Ethereum Txpool sERvices

简介:区块链通常使用交易池来缓存接收到而尚未被包含在区块中的交易。我们知道交易是收取交易费的,而交易费并不固定,由此矿工就可以采用不同的策略来对交易进行排序,以使自己的利益最大化。本文研究了如何利用这些策略的漏洞对以太坊交易池进行拒绝服务攻击。

Feb. 23, 2022
cover

ÐArcher: detecting on-chain-off-chain synchronization bugs in decentralized applications

由于区块链的分布式特性,其上的交易天然存在一定延迟。因此,构建于其上的分布式应用就出现了需要对用户在DApp前端所见的状态与区块链上的状态之间进行同步的问题。本文测试分析了一些DApp中的链上、连下同步问题。

Feb. 16, 2022
cover

Contrastive Learning of Generalized Game Representations

现有的游戏AI中,越来越多地直接使用游戏画面的RGB像素点(图片)来作为游戏的表示。其中卷积神经网络常被用于进行图片处理,以得到压缩后的表征。当前一些通用的特征提取方法在应用到游戏AI时会有一些问题,比如训练计算量太大、在不同游戏间的泛化性差等。对于前一个问题,目前一般采用在预训练模型上进行微调的方法缓解。本文主要关注如何处理后一个问题,也就是泛化性的问题。

Jan. 6, 2022
cover

Using Selective Memoization to Defeat Regular Expression Denial of Service

这篇是今年 Oakland 的文章,介绍了当前许多编程语言的正则表达式库的一个遗留漏洞,并提出了一个新的解决方案。

Dec. 10, 2021
cover

Visually Grounded Reasoning across Languages and Cultures

论文是EMNLP 2021的最佳论文,论文指出了当前视觉-语言数据集的一些问题,发布了一个新的数据集。

Nov. 22, 2021
cover

Warmonger: Inflicting Denial-of-Service via Serverless Functions in the Cloud

本文发表于CCS2021,针对共享资源的云端服务器提出了一种新的杀敌一千自损八百的攻击方式:Warmonger。Warmonger利用了去服务器(serverless)计算平台在不同用户之间共享IP的特点,让第三方内容服务器拒绝响应用户的云端服务。恶意用户可以在共享IP的去服务器平台上对第三方内容服务器发出一些恶意的请求,这样第三方服务器的防火墙就可以将此IP列入黑名单,共享同一IP的其它用户此时就无法访问被攻击的第三方服务器了。本文的攻击模型并不复杂,重点偏重于测量分析。

Oct. 25, 2021
cover

Parameter-exploring policy gradients

本文介绍了一种解决部分可观测马尔可夫问题的一种无模型(model-free)强化学习方法(PGPE)。和一般策略梯度方法不同的是,此方法通过在参数空间中直接进行采样来得到梯度值的估计。PEPG可以降低梯度值估计的方差,让学习过程更加稳定、快速,并且在策略不可导的情况下也可以使用。

Oct. 8, 2021