{"id":21020,"date":"2023-07-13T02:00:26","date_gmt":"2023-07-13T02:00:26","guid":{"rendered":"https:\/\/domosistemas.com\/?p=21020"},"modified":"2023-07-13T02:00:26","modified_gmt":"2023-07-13T02:00:26","slug":"los-nuevos-informes-de-etsi-abordan-la-seguridad-explicabilidad-y-transparencia-del-procesamiento-ia","status":"publish","type":"post","link":"https:\/\/domosistemas.com\/?p=21020","title":{"rendered":"Los nuevos informes de ETSI abordan la seguridad, explicabilidad y transparencia del procesamiento IA"},"content":{"rendered":"<div>\n<p>El grupo de seguridad de inteligencia artificial (ISG SAI) del Instituto Europeo de Normas de Telecomunicaciones (<a href=\"https:\/\/www.etsi.org\/\" target=\"_blank\" rel=\"noopener\">ETSI<\/a>) ha presentado tres nuevos informes que abordan la explicabilidad y la transparencia del procesamiento de inteligencia artificial (IA) y proporcionan un marco de seguridad de plataforma inform\u00e1tica de IA.<\/p>\n<figure id=\"attachment_123964\" aria-describedby=\"caption-attachment-123964\" style=\"width: 800px\" class=\"wp-caption aligncenter\"><img decoding=\"async\" loading=\"lazy\" class=\"size-full wp-image-123964\" src=\"https:\/\/static.casadomo.com\/media\/2023\/07\/etsi-documentos-explicabilidad-transparencia-procesamiento-inteligencia-artificial.png\" alt=\"Inteligencia artificial.\" width=\"800\" height=\"487\" srcset=\"https:\/\/static.casadomo.com\/media\/2023\/07\/etsi-documentos-explicabilidad-transparencia-procesamiento-inteligencia-artificial.png 800w, https:\/\/static.casadomo.com\/media\/2023\/07\/etsi-documentos-explicabilidad-transparencia-procesamiento-inteligencia-artificial-300x183.png 300w, https:\/\/static.casadomo.com\/media\/2023\/07\/etsi-documentos-explicabilidad-transparencia-procesamiento-inteligencia-artificial-768x468.png 768w, https:\/\/static.casadomo.com\/media\/2023\/07\/etsi-documentos-explicabilidad-transparencia-procesamiento-inteligencia-artificial-180x110.png 180w\" sizes=\"auto, (max-width: 800px) 100vw, 800px\"><figcaption id=\"caption-attachment-123964\" class=\"wp-caption-text\">Los documentos tratan la explicabilidad y la transparencia del procesamiento de la IA, un marco de seguridad y un marco de pruebas de conceptos.<\/figcaption><\/figure>\n<p>El primero de los informes publicados, <a href=\"https:\/\/www.etsi.org\/deliver\/etsi_gr\/SAI\/001_099\/007\/01.01.01_60\/gr_SAI007v010101p.pdf\" target=\"_blank\" rel=\"nofollow noopener\">ETSI GR SAI 007<\/a>, identifica los pasos que deben tomar los dise\u00f1adores e implementadores de las plataformas de inteligencia artificial para garantizar la explicabilidad y la transparencia del procesamiento de la IA.<\/p>\n<p>El procesamiento de inteligencia artificial incluye la toma de decisiones de inteligencia artificial y el procesamiento de datos de IA. El informe aborda formas tanto est\u00e1ticas como din\u00e1micas para permitir que los dise\u00f1adores puedan mostrar su trabajo (explicabilidad) y estar abiertos al examen (transparencia).<\/p>\n<p>Como ejemplo, una inteligencia artificial puede estar sesgada por dise\u00f1o si el prop\u00f3sito de la IA es filtrar candidatos para un trabajo en funci\u00f3n de alguna caracter\u00edstica personal (es decir, a diferencia de un motor de selecci\u00f3n meritocr\u00e1tico, la IA act\u00faa como un motor de selecci\u00f3n de caracter\u00edsticas). En tal caso, los requisitos de explicabilidad y transparencia podr\u00e1n identificar esa negativa basada en rasgos, ubicada en la ra\u00edz del motor de razonamiento de la IA.<\/p>\n<h2>Marco de seguridad de la IA<\/h2>\n<p>Por su parte, el documento <a href=\"https:\/\/www.etsi.org\/deliver\/etsi_gr\/SAI\/001_099\/009\/01.01.01_60\/gr_SAI009v010101p.pdf\" target=\"_blank\" rel=\"nofollow noopener\">ETSI GR SAI 009<\/a> proporciona un marco de seguridad de plataforma inform\u00e1tica de inteligencia artificial. En un sistema de IA, una plataforma inform\u00e1tica de inteligencia artificial act\u00faa como la infraestructura para las aplicaciones de IA que proporciona recursos y entornos de ejecuci\u00f3n.<\/p>\n<p>El informe ETSI describe un marco de seguridad de la plataforma inform\u00e1tica de IA que contiene hardware y software b\u00e1sico para proteger activos valiosos como modelos y datos implementados en la plataforma inform\u00e1tica de inteligencia artificial cuando se utilizan en tiempo de ejecuci\u00f3n o se almacenan en reposo.<\/p>\n<p>El marco de seguridad consta de componentes de seguridad en la plataforma inform\u00e1tica IA y mecanismos de seguridad ejecutados por componentes de seguridad en la plataforma. Al especificar el marco de seguridad, una plataforma inform\u00e1tica de inteligencia artificial se puede consolidar contra el ataque relevante y puede proporcionar capacidades de seguridad para las partes interesadas involucradas en los sistemas de IA que necesitan proteger mejor los activos valiosos (modelo\/datos) en una plataforma inform\u00e1tica de IA.<\/p>\n<h2>Marco de prueba de conceptos<\/h2>\n<p>Por \u00faltimo, <a href=\"https:\/\/www.etsi.org\/deliver\/etsi_gr\/SAI\/001_099\/013\/01.01.01_60\/gr_SAI013v010101p.pdf\" target=\"_blank\" rel=\"nofollow noopener\">ETSI GR SAI 013<\/a> es un marco de prueba de conceptos, que proporciona informaci\u00f3n sobre el marco \u2018ligero\u2019 que utilizar\u00e1 ETSI ISG SAI para crear pruebas de conceptos (PoC) de m\u00faltiples socios. El marco se utiliza como una herramienta para demostrar la aplicabilidad de las ideas y la tecnolog\u00eda.<\/p>\n<p>Los PoC multipartidistas fortalecen la colaboraci\u00f3n entre las partes interesadas de la IA. Los resultados pondr\u00e1n en perspectiva el trabajo del grupo ETSI SAI, aumentar\u00e1n la visibilidad y crear\u00e1n conciencia sobre los problemas de seguridad de la IA. El marco est\u00e1 dise\u00f1ado para incluir tantas soluciones basadas en inteligencia artificial como sea posible, incluidas aquellas que cumplen funciones cr\u00edticas relacionadas con el an\u00e1lisis de datos, la gesti\u00f3n de infraestructuras y la seguridad\/ciberseguridad.<\/p>\n<p>En teor\u00eda, un sistema basado en IA puede convertirse en un objetivo por s\u00ed mismo, y la detecci\u00f3n de este tipo de ataques puede representar un desaf\u00edo importante. Sin embargo, los ejemplos del mundo real de tales ataques son menos comunes. La comprensi\u00f3n de los aspectos pr\u00e1cticos para, por un lado, realizar un ataque impactante contra un sistema basado en IA y, por el otro, para defenderse y responder a dicha amenaza a\u00fan es limitada y el papel de los PoC para resaltar los problemas es clave para el \u00e9xito de la IA de seguridad.<\/p>\n<p>La entrada <a rel=\"nofollow\" href=\"https:\/\/www.casadomo.com\/2023\/07\/13\/nuevos-informes-etsi-abordan-seguridad-explicabilidad-transparencia-procesamiento-ia\">Los nuevos informes de ETSI abordan la seguridad, explicabilidad y transparencia del procesamiento IA<\/a> aparece primero en <a rel=\"nofollow\" href=\"https:\/\/www.casadomo.com\/\">CASADOMO<\/a>.<\/p>\n<\/div>\n","protected":false},"excerpt":{"rendered":"<p>El grupo de seguridad de inteligencia artificial (ISG SAI) del Instituto Europeo de Normas de Telecomunicaciones (ETSI) ha presentado tres nuevos informes que abordan la explicabilidad y la transparencia del procesamiento de inteligencia artificial (IA) y proporcionan un marco de seguridad de plataforma inform\u00e1tica de IA. Los documentos tratan la explicabilidad y la transparencia del &hellip; <a href=\"https:\/\/domosistemas.com\/?p=21020\" class=\"more-link\">Sigue leyendo <span class=\"screen-reader-text\">Los nuevos informes de ETSI abordan la seguridad, explicabilidad y transparencia del procesamiento IA<\/span><\/a><\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[3],"tags":[],"class_list":["post-21020","post","type-post","status-publish","format-standard","hentry","category-casadomo-com"],"_links":{"self":[{"href":"https:\/\/domosistemas.com\/index.php?rest_route=\/wp\/v2\/posts\/21020","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/domosistemas.com\/index.php?rest_route=\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/domosistemas.com\/index.php?rest_route=\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/domosistemas.com\/index.php?rest_route=\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/domosistemas.com\/index.php?rest_route=%2Fwp%2Fv2%2Fcomments&post=21020"}],"version-history":[{"count":0,"href":"https:\/\/domosistemas.com\/index.php?rest_route=\/wp\/v2\/posts\/21020\/revisions"}],"wp:attachment":[{"href":"https:\/\/domosistemas.com\/index.php?rest_route=%2Fwp%2Fv2%2Fmedia&parent=21020"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/domosistemas.com\/index.php?rest_route=%2Fwp%2Fv2%2Fcategories&post=21020"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/domosistemas.com\/index.php?rest_route=%2Fwp%2Fv2%2Ftags&post=21020"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}