#Blogs #Tecnología
Plantean código de conducta para Inteligencia Artificial
La propuesta busca rellenar el vacío legal hasta que entre en vigor la Ley de Inteligencia Artificial, que sigue en vías de negociación en las instituciones europeas.
El anuncio del código de conducta, se da a conocer en medio de muchas preocupaciones que científicos y expertos tienen por el peligro que el mal uso de estas tecnologías pueda representar para la humanidad.
La Unión Europea junto con los Estados Unidos, busca crear un “código de conducta voluntario” con el fin de darle un uso correcto a la Inteligencia Artificial . La propuesta, que aún está en negociaciones por parte de los dirigentes políticos, puede tardarse varios años, en los que la tecnología puede seguir avanzando sin pausa.
El objetivo, es promover el desarrollo y uso responsable de la IA, que respete los derechos humanos, la democracia y el estado de derecho.
Ante las alertas sobre su uso desmedido, ambos impulsores se propusieron consolidar un proyecto de control que se aplicaría en unos tres años.
Margrethe Vestager, vicepresidenta de la comisión europea para el área digital, dijo que “en las próximas semanas vamos a avanzar una propuesta de conducta para inteligencia artificial, a la que las empresas pueden comprometerse de manera voluntaria”, después de una reunión que sostuvo con representantes estadounidenses.
La vicepresidenta Vestager dijo en su cuenta de Twitter que el proyecto no puede esperar y que “trabajaremos con nuestros socios clave y la comunidad IA, para hacer que las Inteligencias Artificiales sean responsables, seguras y confiables”. También mencionó que este es un “gran paso en una carrera que no podemos perder”.
Luego de que Sam Altman, fundador de la empresa OpenAI, realizó una gira mundial en la que está hablando de inteligencias artificiales, y sus posibles regulaciones, se da este anuncio que quiere conducir a el uso responsable de estas tecnologías que, según expertos, está escalando rápidamente en la humanidad.
Algunas de las ideas que se plantean empresas como Antrópico y OpenAI son, el uso de marcas de agua, auditorías externas y circuitos de retroalimentación que permitan un correcto uso de las plataformas.
El propio Altman ya había expresado su opinión sobre este tema en su intervención ante el Senado de Estados Unidos, cuando admitió la importancia de normar la inteligencia artificial generativa. “Mi mayor temor es que esta tecnología falle. Y si falla, puede fallar muy mal”, afirmó hace solo dos semanas durante la primera audiencia sobre IA celebrada en el Capitolio.
Las declaraciones se producen en un contexto de creciente inquietud, hacia un sector en rápida evolución y difícil de regular.