Cuatro artículos de investigadores de Instituto IMDEA Software han sido aceptados para su publicación en la 23 edición del congreso de la ACM (Association for Computing Machinery, EEUU) sobre Seguridad Informática y Comunicaciones (CCS), una de los más prestigiosos congresos en este área, que se celebrará a finales de Octubre en Viena, Austria.
El trabajo de Dario Fiore, titulado “Hash First, Argue Later: Adaptive Verifiable Computations on Outsourced Data”, en coautoría con Cédric Fournet, Markulf Kohlweiss, Olga Ohrimenko y Bryan Parno from Microsoft Research, y Esha Ghosh de la Universidad de Brown University, propone nuevas técnicas criptográficas que garantizan la corrección de operaciones realizadas por terceras partes no confiables.
Los otros tres artículos tienen como autor al investigador Gilles Barthe. El primer artículo, “Advanced Probabilistic Couplings for Differential Privacy”, con Noémie Fong (ENS & IMDEA Software Institute), Marco Gaboardi (University at Buffalo, SUNY), Benjamin Grégoire (Inria), Justin Hsu (University of Pennsylvania) y el antiguo miembro de IMDEA researcher Pierre-Yves Strub, propone nuevas técnicas para verificar formalmente algoritmos que ofrecen privacidad diferencial.
En la misma temática, el segundo artículo: “Differentially Private Bayesian Programming”, con Gian Pietro Farina y Marco Gaboardi (University at Buffalo, SUNY), Emilio Jesús Gallego Arias (CRI Mines – ParisTech), Andrew D. Gordon (Microsoft Research), Justin Hsu (University of Pennsylvania) y Pierre-Yves Strub, presenta novedosos métodos para generar y verificar algoritmos Bayesianos de aprendizaje máquina con protección diferencial de privacidad.
Finalmente, el tercer artículo, “Strong non-interference and type-directed higher-order masking”, con with Sonia Belaïd (Thales Communications & Security), Pierre-Alain Fouque (Université Rennes 1), Benjamin Grégoire (Inria) Rebecca Zucchini (Inria), Pierre-Yves Strub y François Dupressoir (también antiguo miembro del Instituto IMDEA Software) propone una metodología automática para verificar la seguridad de algoritmos enmascarados frente a ataques por análisis de potencia diferencial, asi como para generar versiones enmascaradas partiendo de la descripción desprotegida de un algoritmo.
Más información en CCS 2016.