aisec (25)in #aisec • 7 years ago[AISec]Security Risks in Deep Learning Implementations 360研究院对深度学习框架的安全研究论文地址: 截图: 不知道是否看完论文就可以挖掘漏洞了呢?aisec (25)in #tensorflow • 7 years ago[AISec]Finding Bugs in TensorFlow with LibFuzzer 利用LibFuzzer寻找tensorflow漏洞链接: libFuzzer tutorial: 不知道使用LibFuzzer 模糊测试来挖掘Tensorflow会有什么结果? 后面会分析一下tensorflow的CVEaisec (25)in #aisec • 7 years ago[AISec]Show-and-Fool: Crafting Adversarial Examples for Neural Image Captioning 对抗样本攻陷图像标注系统针对深度学习系统的对抗性样本攻击问题,来自麻省理工学院,加州大学戴维斯分校,IBM Research 和腾讯 AI Lab 的学者在 arXiv 上发表论文提出对于神经网络图像标注系统(neural image captioning system)的对抗样本生成方法。实验结果显示图像标注系统能够很容易地被欺骗。 论文地址:aisec (25)in #machine-learning • 7 years ago[machine-learning]machine-learning-flashcard 机器学习关键概念:300张小抄表小抄表来自机器学习网红Chris Albon博士。Chris 是一位很有热情的机器学习从业者、数据科学家,也是初创公司NewKnowldgeAI的联合创始人。 在他自己学习机器学习的时候,发现通过这样的小卡片理解和记忆机器学习相关概念,比单纯读教科书要有效的多。于是便总结了300+个机器学习概念,并用彩笔手绘、扫描,制作了这套精致的小抄表礼包。…