Conocida como Ley de Innovación Segura para Modelos Fronterizos de Inteligencia Artificial, o SB 1047, la ley estaba dirigida a empresas que desarrollaban IA generativa, como texto, imágenes y audio.
California es el hogar de algunas de las empresas de tecnología líderes del mundo. Las empresas que construyen modelos que cuestan más de 100 millones de dólares habrían tenido que implementar «interruptores de apagado» para su IA y publicar planes para probar y mitigar riesgos extremos. También se habría exigido a las empresas que cerraran el modelo por completo en caso de emergencias. Grandes nombres como Google, Meta y OpenAI habían expresado su preocupación por las estrictas reglas del proyecto de ley, diciendo que podrían obstaculizar el desarrollo de la IA. Pero lejos de poner fin al debate sobre la seguridad y la IA, el veto de Gavin Newsom sólo ha dejado abiertos los diferentes argumentos. A pesar del veto, incluso Newsom admitió que era necesario adoptar protocolos de seguridad. La pregunta es: ¿cómo? Leer más de Nidhi Razdan La victoria del BJP en Haryana aturde al Congreso y cambia el impulso Del triunfo a los problemas: Starmer atrapado en un fiasco de obsequio Adoración al héroe: cuando la gobernanza se convierte en un espectáculo Fomentar la innovación La tecnología de inteligencia artificial es extremadamente poderosa. Hemos visto cuál es el potencial tanto para la innovación como para la manipulación. Los vídeos profundamente falsos han prosperado en la era de la inteligencia artificial y la desinformación. Y por el momento, estas empresas de tecnología que están fabricando esta tecnología extremadamente poderosa no enfrentan ninguna restricción en los EE. UU. Algunos expertos sostienen que restricciones o regulaciones amplias o radicales de la IA simplemente no son posibles, especialmente porque gran parte de la tecnología aún se encuentra en una etapa experimental. Pero ya estamos viendo cuál podría ser el impacto potencial del mal uso. Ahí es donde la regulación equilibrada con el fomento de la innovación se vuelve cada vez más importante. No hay duda de que demasiada regulación puede sofocar la innovación y éste es un acto de equilibrio muy delicado. La transparencia es clave. Como sostienen los expertos, es imperativo mantener la IA ética y garantizar que haya transparencia sobre los procesos y la gestión de datos para evitar sesgos. El desafío radica en garantizar que la IA no se utilice con fines dañinos. Pero cuando las empresas impulsadas por las ganancias están a la cabeza, esta preocupación no hace más que crecer. Por eso la regulación se vuelve clave. Sí, no sabemos realmente cuáles serán los posibles efectos nocivos de la IA, pero las empresas deben rendir cuentas. Los desarrolladores deben estar bajo presión sobre los riesgos asociados con la IA y lo que pueden hacer para cortarla de raíz. El proyecto de ley de California hizo precisamente eso al fomentar la innovación pero también alentar a los expertos a pensar más en los riesgos potenciales involucrados. Una preocupación justificada sobre el proyecto de ley es cómo pudo haber afectado desproporcionadamente a las empresas emergentes más pequeñas que simplemente no habrían podido seguir el ritmo de los estándares de seguridad propuestos. Es posible que no hayan podido competir con empresas tecnológicas más grandes. El proyecto de ley de California estuvo lejos de ser perfecto, pero fue un comienzo y, con modificaciones, es algo sobre lo que se puede construir. Nidhi Razdan @Nidhi Nidhi Razdan es una periodista galardonada. Ha informado extensamente sobre política y diplomacia.