banner
Centro de Noticias
Nuestra certificación ISO demuestra que cumplimos con los estándares internacionales.

Encontrar las formas más inteligentes de regular la IA global

Sep 04, 2023

Bienvenido a Fixing the Future, un podcast de IEEE Spectrum. Soy la editora senior Eliza Strickland y hoy estoy hablando con Russell Wald de la Universidad de Stanford sobre los esfuerzos para regular la inteligencia artificial. Antes de comenzar con este episodio, me gustaría informarles a los oyentes que el costo de la membresía en IEEE tiene actualmente un 50 por ciento de descuento durante el resto del año, lo que les brinda acceso a beneficios, incluida la revista Spectrum y mucha educación y carrera. recursos. Además, obtendrás un excelente Cubo de Rubik con la marca IEEE cuando ingreses el código CUBE en línea. Vaya a IEEE.org/join para comenzar.

En los últimos años, las personas que prestan atención a la investigación sobre inteligencia artificial han quedado asombradas por el ritmo de los avances, tanto por las rápidas ganancias en las capacidades de la IA como por los riesgos y lados oscuros acumulados. Luego, en noviembre, OpenAI lanzó el extraordinario chatbot ChatGPT y el mundo entero empezó a prestar atención. De repente, los responsables políticos y los expertos hablaban del poder de las empresas de IA y de si era necesario regularlas. Con tanta charla sobre la IA, ha sido difícil entender qué está sucediendo realmente en el frente político en todo el mundo. Por eso hoy estoy hablando con Russell Wald, director general de políticas y sociedad del Instituto de Inteligencia Artificial Centrada en el Humano de Stanford. Hoy, en Arreglando el futuro, hablo con Russell Wald, director gerente de políticas y sociedad del Instituto de Inteligencia Artificial Centrada en el Humano de Stanford. Russell, muchas gracias por acompañarme hoy.

Russell Wald: Muchas gracias. Es genial estar aquí.

Estamos viendo muchos pedidos de regulación en este momento para la inteligencia artificial. Y, curiosamente, algunas de esas llamadas provienen de los directores ejecutivos de las empresas involucradas en esta tecnología. Los directores de OpenAI y Google han discutido abiertamente la necesidad de regulaciones. ¿Qué opina de estos pedidos de regulaciones provenientes del interior de la industria?

Wald: Sí. Es realmente interesante que la industria interna lo requiera. Creo que demuestra que están en una carrera. Hay una parte aquí en la que analizamos esto y decimos que no pueden detenerse y colaborar porque uno comienza a meterse en problemas antimonopolio si sigue esas líneas. Así que creo que para ellos se trata de crear un campo de juego más equilibrado. Pero, por supuesto, lo que realmente surge de esto, a mi modo de ver, es que preferirían trabajar ahora para poder crear algunas de esas regulaciones en lugar de evitar una regulación reactiva. Así que es una pastilla más fácil de tragar si pueden intentar darle forma ahora en este punto. Por supuesto, el diablo está en los detalles de estas cosas, ¿verdad? La pregunta siempre es ¿de qué tipo de regulación estamos hablando? Y la realidad es que debemos asegurarnos de que cuando estamos dando forma a las regulaciones, por supuesto, la industria debe ser escuchada y tener un asiento en la mesa, pero otros también necesitan tener un asiento en la mesa. Academia, sociedad civil, personas que realmente se están tomando el tiempo para estudiar cuál es la regulación más efectiva que aún mantendrá un poco a raya a la industria pero que les permitirá innovar.

Sí. Y eso nos lleva a la pregunta: ¿qué es lo que más es necesario regular? En su opinión, ¿cuáles son los males sociales de la IA por los que más debemos preocuparnos y limitar?

Wald: Sí. Si lo veo desde una perspectiva de urgencia, para mí lo más preocupante son los medios sintéticos en este momento. Y la pregunta al respecto es: ¿cuál es el área regulatoria aquí? Me preocupan los medios sintéticos por lo que en última instancia le sucederá a la sociedad si nadie tiene confianza en lo que está viendo y en su veracidad. Así que, por supuesto, me preocupan mucho los deepfakes, las elecciones y cosas así, pero estoy igualmente preocupado por el Papa con un abrigo hinchado. Y la razón por la que esto me preocupa es porque si hay una cantidad ubicua de medios sintéticos por ahí, lo que en última instancia creará es crear un momento en el que nadie tendrá confianza en la veracidad de lo que ve digitalmente. Y cuando te encuentras en esa situación, la gente elegirá creer lo que quiera creer, ya sea una verdad incómoda o no. Y eso es realmente preocupante.

Esta misma semana, un vicepresidente de la Comisión de la UE señaló que creen que la plataforma debería revelar si algo está generado por IA. Creo que ese es el enfoque correcto porque no necesariamente podrás detener la creación de muchos medios sintéticos, pero como mínimo, puedes detener su amplificación, o al menos, poner algún nivel de divulgación. que hay algo que te indica que puede que en realidad no sea lo que dice que es y que al menos estés informado de eso. Esa es una de las áreas más grandes. La otra cosa que creo, en términos de regulación general, que debemos considerar es una mayor transparencia con respecto a los modelos de fundaciones. Hay muchísimos datos que se han incluido en estos modelos. Son muy grandes. ¿Qué les pasa? ¿Cuál es la arquitectura del cómputo? Porque al menos si ves que los daños surgen desde el final, al tener cierto grado de transparencia, podrás decir: "Ajá". Puedes volver a lo que muy bien pudo haber sido.

Es interesante. Así que esa es una manera de abordar varios problemas diferentes del usuario final empezando por el principio.

Wald: Bueno, no se trata sólo de empezar desde el principio, que es una parte clave, sino que la parte principal es el aspecto de la transparencia. Eso es lo importante porque permite que otros lo validen. Permite que otros comprendan hacia dónde se dirigen algunos de estos modelos y qué puede suceder en última instancia con ellos. Garantiza que tengamos un grupo más diverso de personas en la mesa, algo que me apasiona mucho. Y eso incluye la academia, que históricamente ha tenido un papel muy vibrante en este campo, pero desde 2014, lo que hemos visto es este lento declive de la academia en este espacio en comparación con donde la industria realmente está despegando. Y eso es una preocupación. Necesitamos asegurarnos de tener un conjunto diverso de personas en la mesa para poder garantizar que cuando estos modelos se publiquen, haya un grado de transparencia que podamos ayudar a revisar y ser parte de esa conversación.

¿Y también le preocupa el sesgo algorítmico y los sistemas automatizados de toma de decisiones que pueden usarse en sistemas judiciales, sistemas legales o contextos médicos, cosas así?

Wald: Absolutamente. Y tanto en los sistemas judiciales, estoy tan preocupado por eso que creo que si vamos a hablar sobre dónde podría haber pausas, supongo que menos sobre investigación y desarrollo, pero sí sobre implementación. . Entonces, sin lugar a dudas, estoy muy preocupado por algunos de estos sesgos y prejuicios en áreas de alto riesgo. Pero nuevamente, volviendo al lado de la transparencia, esa es un área en la que se puede tener un ecosistema mucho más rico para poder perseguirlos y comprender por qué podría estar sucediendo para tratar de limitarlo o mitigar este tipo de riesgo. .

Sí. Entonces mencionaste una pausa. La mayoría de nuestros oyentes probablemente conocerán la carta de pausa, como la llama la gente, que pedía una pausa de seis meses en los experimentos con sistemas gigantes de inteligencia artificial. Y luego, un par de meses después de eso, hubo una declaración abierta de varios expertos en IA y miembros de la industria que decían que debemos tomar en serio el riesgo existencial que plantea la IA. ¿Qué opinas de ese tipo de preocupaciones? ¿Se toma en serio las preocupaciones de que la IA pueda representar una amenaza existencial para nuestra especie? Y si es así, ¿cree que es algo que puede regularse o debería considerarse en un contexto regulatorio?

Wald: Primero, creo que, como todo en nuestra sociedad hoy en día, todo parece polarizarse muy rápidamente. Entonces, cuando miro esto y veo a personas preocupadas por el riesgo existencial o por decir que no están enfocados en la inmediatez de los daños inmediatos, tomo la palabra de la gente en términos de que lo hacen de buena fe y desde diferentes perspectivas. . Sin embargo, cuando miro esto, me preocupa esta polarización de estos lados y nuestra incapacidad para tener una conversación genuina y verdadera. En términos de riesgo existencial, ¿es lo primero que tengo en mente? No. Estoy más preocupado por el riesgo humano que se aplica ahora con algunas de estas cosas. Pero decir que el riesgo existencial tiene una probabilidad del 0%, diría que no. Por lo tanto, por supuesto, deberíamos mantener diálogos sólidos y reflexivos sobre este tema, pero creo que debemos abordarlo desde un enfoque equilibrado. Si lo miramos de esta manera, los aspectos positivos de la tecnología son bastante significativos. Si observamos lo que AlphaFold ha hecho con el plegamiento de proteínas, eso en sí mismo podría tener un impacto tan significativo en la salud y abordar enfermedades raras con terapias que no habrían estado disponibles antes. Sin embargo, al mismo tiempo, está lo negativo de un área que realmente me preocupa en términos de riesgo existencial, y es donde lo humano entra en juego con esta tecnología. Y eso es cosas como biosintéticas, ¿verdad? La biosíntesis podría crear agentes que no podemos controlar y puede haber una fuga de laboratorio o algo que podría ser realmente terrible. Así es como pensamos sobre lo que vamos a hacer en muchos de estos casos particulares.

En el Instituto Stanford para la IA centrada en las personas, somos una organización que otorga subvenciones internamente para nuestro cuerpo docente. Y antes de que puedan siquiera empezar con un proyecto que quieran financiar, tienen que pasar por una declaración de revisión de ética y sociedad. Y tienes que ir y decir: "Esto es lo que creo que sucederá y estas son las posibilidades de doble uso". Y yo he sido el receptor de esto, y les diré que no es solo un paseo por el parque con una lista de verificación. Regresaron y dijeron: “No pensaste en esto. ¿Cómo mejorarías esto? ¿Qué harías?" Y simplemente tomando ese aspecto holístico de comprender el riesgo total de las cosas, este es un paso que podríamos dar para poder comenzar a aprender sobre esto a medida que lo desarrollamos. Pero, de nuevo, para volver a su punto, creo que realmente tenemos que analizar esto y el riesgo general de esto y tener conversaciones genuinas sobre lo que esto significa y cómo podemos abordarlo, y no tener esta hiperpolarización que creo. Estoy empezando a ver un poco y es preocupante.

Sí. Eso también me ha preocupado, especialmente el tipo de vitriolo que parece surgir en algunas de estas conversaciones.

Wald: Aquí todo el mundo puede exagerar un poco. Y creo que es genial que a la gente le apasione lo que les preocupa, pero tenemos que ser constructivos si queremos avanzar hacia las cosas aquí. Entonces es algo que siento mucho.

Y cuando se piensa en lo rápido que avanza la tecnología, ¿qué tipo de marco regulatorio puede seguir el ritmo o funcionar con ese ritmo de cambio? Estuve hablando con un científico informático aquí en los EE. UU. que participó en la elaboración del anteproyecto para la Declaración de Derechos de la IA y dijo: "Tiene que ser un marco de derechos civiles porque se centra más en el impacto humano y menos en la tecnología en sí". .” Entonces dijo que puede ser una hoja de cálculo de Excel o una red neuronal la que esté haciendo el trabajo, pero si solo te concentras en el impacto humano, esa es una forma de mantenerse al día con la tecnología cambiante. Pero sí, solo tengo curiosidad por conocer tus ideas sobre lo que funcionaría de esta manera.

Wald: Sí. Me alegra mucho que hayas hecho esta pregunta. Lo que tengo es una mayor preocupación de que incluso si mañana elaboráramos regulaciones óptimas, que realmente fueran ideales, sería increíblemente difícil para el gobierno hacerlas cumplir ahora mismo. En realidad, mi función es pasar más tiempo con los responsables de la formulación de políticas que cualquier otra cosa. Y cuando paso mucho tiempo con ellos, lo primero que escucho es: "Veo este problema X y quiero regularlo con una solución Y". Y muchas veces me siento ahí y digo: “Bueno, eso en realidad no funcionará en este caso particular. No estás resolviendo ni mejorando el daño particular que quieres regular”. Y lo que veo que hay que hacer primero antes de que podamos pensar plenamente en las regulaciones es combinar esto con la inversión, ¿verdad? Así que no tenemos una estructura que realmente se ocupe de esto, y si dijéramos: "Está bien, simplemente publicaremos algunas regulaciones", me preocupa que no podamos lograrlas de manera efectiva. Entonces, ¿qué quiero decir con esto? Primero, en gran medida, creo que necesitamos una estrategia más nacional. Y parte de esa estrategia nacional es garantizar que los formuladores de políticas estén lo más informados posible al respecto. Dedico mucho tiempo a reuniones informativas con los responsables políticos. Se puede decir que el interés está creciendo, pero necesitamos formas más formalizadas y asegurarnos de que comprendan todos los matices aquí.

La segunda parte de esto es que necesitamos infraestructura. Necesitamos absolutamente un grado de infraestructura que garantice que tengamos un mayor número de personas en la mesa. Eso incluye el Recurso Nacional de Investigación de IA, que personalmente me apasiona desde hace bastantes años. La tercera parte de esto es el talento. Tenemos que reclutar talento. Y eso significa que debemos analizar realmente la inmigración STEM y ver qué podemos hacer porque mostramos muchos datos, al menos dentro de Estados Unidos. El camino para aquellos estudiantes que no pueden quedarse aquí, los obstáculos para obtener visas, son demasiado terribles. Recogen y se van, por ejemplo, a Canadá. Necesitamos ampliar programas como la Ley de Personal Intergubernamental que pueda permitir que las personas que trabajan en el mundo académico o en otras investigaciones sin fines de lucro entren y salgan del gobierno e informen al gobierno para que tengan más claridad al respecto.

Luego, finalmente, necesitamos, de manera sistemática, introducir regulación en este espacio. Y en el frente regulatorio, veo que hay dos partes aquí. En primer lugar, habrá nuevas regulaciones novedosas que deberán aplicarse. Y nuevamente, la parte de transparencia sería una que incluiría en la divulgación obligatoria de algunas cosas. Pero la segunda parte de esto es que hay muchos frutos al alcance de la mano con las regulaciones existentes. Y me alienta ver que la FTC y el DOJ al menos han hecho algunas declaraciones de que si estás usando IA para propósitos nefastos o prácticas engañosas, o afirmas que algo es IA cuando no lo es, vamos a ir tras ti. . Y la razón por la que creo que esto es tan importante es que ahora estamos dando forma a un ecosistema. Y cuando estás dando forma a ese ecosistema, lo que realmente necesitas es asegurar que haya confianza y validez en ese ecosistema. Entonces, francamente, creo que la FTC y el Departamento de Justicia deberían castigar a cualquiera que esté usando esto para cualquier práctica engañosa, para que podamos comenzar a abordar algunos de esos problemas. Y bajo todo ese régimen, es más probable que tenga las regulaciones más efectivas si puede dotar de personal adecuado a algunas de estas agencias para ayudar con esto. Y esa es la que considero una de las áreas más urgentes. Entonces, cuando hablamos de regulación, estoy totalmente a favor, pero tenemos un par con ese nivel de inversión gubernamental para respaldarla.

Sí. Supongo que sería un muy buen paso ver lo que ya está cubierto antes de establecer nuevas reglas.

Wald: Correcto. Bien. Y hay muchas áreas existentes que se cubren fácilmente en algunas de estas cosas, y es una obviedad, pero creo que la IA asusta a la gente y no entienden cómo se aplica. También estoy muy a favor de la ley federal de privacidad de datos. Comencemos temprano con algo de ese tipo de trabajo que se incluye en estos sistemas desde el principio.

Así que hablemos un poco de lo que está pasando en todo el mundo. La Unión Europea pareció ser la primera en empezar a regular la IA. Han estado trabajando en la Ley de IA desde, creo, abril de 2021, cuando se emitió la primera propuesta, se ha abierto camino a través de varios comités y se han propuesto enmiendas. Entonces, ¿cuál es el estado actual de la Ley de IA? ¿Qué cubre? ¿Y qué tiene que pasar a continuación para que eso se convierta en legislación aplicable?

Wald: El siguiente paso es tener la versión del Parlamento Europeo, el consejo y la comisión. Y esencialmente, lo que necesitan analizar es cómo se van a fusionar y qué áreas de ellas se incluirán en la ley final real. Entonces, en términos del cronograma general, yo diría que todavía nos falta otro buen año para que algo entre en vigor. Yo diría un muy buen año libre, si no más. Pero con ese fin, lo interesante es, nuevamente, este ritmo rápido que usted notó y el cambio que esto implica. Entonces, lo que hay en las versiones del Consejo y de la Comisión realmente no cubre los modelos de fundaciones al mismo nivel que lo hace el Parlamento Europeo. Y el Parlamento Europeo, porque fue un poco más tarde en esto, tiene esta área de modelos básicos que tendrán que examinar, que tendrán muchos más aspectos clave sobre la IA generativa. Así que será realmente interesante lo que finalmente suceda aquí. Y éste es el problema de parte de esta tecnología que avanza rápidamente. Hace poco estuve hablando de esto con algunos funcionarios federales. Hicimos una capacitación virtual el año pasado en la que algunos de nuestros profesores de Stanford vinieron y grabaron estos videos. Están disponibles para miles de personas de la fuerza laboral federal. Y son geniales. Apenas tocaron la IA generativa. Porque fue el verano pasado y nadie realmente profundizó en eso y comenzó a abordar los problemas relacionados con la IA generativa. Obviamente, entonces sabían que la IA generativa existía. Estos son miembros brillantes de la facultad. Pero no fue tan amplio ni ubicuo. Y ahora aquí estamos, y es como el tema del día. Entonces lo interesante es qué tan rápido avanza la tecnología. Y eso vuelve a mi punto anterior de por qué realmente se necesita una fuerza laboral que entienda esto para que puedan adaptarse rápidamente y realizar los cambios que podrían ser necesarios en el futuro.

¿Y realmente tiene algo que ganar Europa siendo la primera en actuar en este espacio? ¿Es sólo una victoria moral si son ellos quienes iniciaron la conversación regulatoria?

Wald: Creo que tienen algunas cosas que ganar. Creo que una victoria moral es una gran victoria, si me preguntas. A veces pienso que Europa puede ser ese lado bueno y consciente y obligar al resto del mundo a pensar en estas cosas, como algunos de sus oyentes podrían estar familiarizados. Está el efecto Bruselas. Y lo que esencialmente es el Efecto Bruselas para aquellos que no lo saben, es el concepto de que Europa tiene una participación de mercado tan grande que son capaces de imponer sus reglas y regulaciones que, al ser las más estrictas, se convierten en el modelo para el resto del mundo. Por eso, muchas industrias simplemente basan todo su tipo de regulación de gestión en el conjunto más estricto y que generalmente proviene de Europa. El desafío para Europa es el grado en que están invirtiendo en la innovación misma. Así que tienen una poderosa cuota de mercado, y es realmente importante, pero aún está por determinar dónde estará Europa en el largo plazo. Diré que una antigua parte de la UE, el Reino Unido, en realidad está haciendo un trabajo realmente interesante aquí. Están hablando casi hasta ese nivel de "tengamos cierto grado de regulación, observemos las regulaciones existentes", pero realmente están invertidos en la parte de infraestructura de brindar las herramientas de manera amplia. Así que los británicos tienen una propuesta para un sistema informático a exaescala que cuesta 900 millones de libras esterlinas. Así que el Reino Unido realmente está tratando de hacer esto, dupliquemos el lado de la innovación y, cuando sea posible, hagamos un lado regulatorio porque realmente quieren verse a sí mismos como el líder. Creo que Europa podría necesitar estudiar en la medida de lo posible un grado de fomento de un entorno que permita ese mismo nivel de innovación.

Europa pareció ser la primera en empezar, pero ¿tengo razón al pensar que el gobierno chino puede ser el que esté avanzando más rápido? Ha habido una serie de regulaciones, no sólo propuestas en los últimos años, sino que creo que realmente se han puesto en vigor.

Wald: Sí. Absolutamente. Existe el efecto Bruselas, pero ¿qué sucede ahora cuando se tiene el efecto Beijing? Porque en el caso de Beijing, simplemente no tienen cuota de mercado, pero también tienen una base innovadora muy fuerte. Lo que sucedió en China fue el año pasado, alrededor de marzo de 2022, surgieron algunas regulaciones relacionadas con los sistemas de recomendación. Y en algunos de ellos, podría solicitar reparación o que un humano audite esto. Es difícil obtener el mismo nivel de datos de China, pero estoy realmente interesado en ver cómo aplican algunas de estas regulaciones. Porque lo que realmente me fascina es la escala, ¿verdad? Entonces, cuando dices que permites una revisión humana, no puedo evitar pensar en esta analogía. Mucha gente solicita un trabajo, y la mayoría de las personas que solicitan un trabajo piensan que están calificadas o que no van a perder el tiempo solicitando el trabajo. ¿Y qué pasa si nunca consigues esa entrevista y qué pasa si mucha gente no consigue esa entrevista y dices: “Espera un momento, merecía una entrevista? ¿Por qué no conseguí uno? Levanta el capó de tu sistema para que pueda realizar una revisión humana”. Creo que hay un grado de legitimidad para eso. La preocupación es ¿qué nivel no se puede escalar para poder afrontar ese momento? Y realmente estoy viendo ese. También tuvieron el año pasado la síntesis profunda [inaudible] que entró en vigor en enero de 2023 y que dedica mucho tiempo a buscar falsificaciones profundas. Y este año, se relacionó con la IA generativa. Hay algunas orientaciones iniciales. Y lo que esto realmente demuestra es una preocupación que tiene el Estado. Entonces, la República Popular China, o el Partido Comunista en este caso, porque una cosa es que se refieren a la necesidad de armonía social y que la IA generativa no debe usarse con fines que perturben esa armonía social. Así que creo que se puede ver la preocupación del gobierno chino sobre lo que esto podría significar para el propio gobierno.

Es interesante. Aquí en Estados Unidos, a menudo se escucha a la gente argumentar en contra de las regulaciones diciendo: "Bueno, si reducimos la velocidad, China va a avanzar". Pero siento que en realidad podría ser una narrativa falsa.

Wald: Sí. Sin embargo, tengo un punto interesante al respecto. Y creo que se refiere al último punto sobre los sistemas de recomendación y la capacidad de reparación humana o una auditoría humana de eso. No quiero decir que no esté a favor de las regulaciones. Estoy muy a favor de las regulaciones. Pero siempre quiero asegurarme de que estamos haciendo las regulaciones correctas porque muchas veces las regulaciones no dañan al jugador grande, dañan al jugador más pequeño porque el jugador grande puede darse el lujo de administrar parte de este trabajo. Pero la otra parte es que podría haber una sensación de falsa comodidad que puede surgir de algunas de estas regulaciones porque no resuelven lo que usted quiere que resuelvan. Y por eso no quiero llamar a Estados Unidos en un momento de Ricitos de Oro. Pero si realmente puedes ver lo que hacen los chinos en este espacio en particular y cómo está funcionando, y si funcionará, podrían surgir otras variables que dirían: "Está bien, bueno, esto claramente funcionaría en China". , pero no podría funcionar en Estados Unidos”. Es casi como un banco de pruebas. ¿Sabes que siempre dicen que los estados son las incubadoras de la democracia? Es bastante interesante cómo Estados Unidos puede ver lo que sucede en Nueva York. Pero, ¿qué pasó con la ley de algoritmos de contratación de la ciudad de Nueva York? Luego, a partir de ahí, podemos empezar a decir: “Vaya, resulta que la regulación no funciona. Aquí hay uno que podríamos tener aquí”. Mi única preocupación es que el rápido ritmo de esto podría requerir que necesitemos alguna regulación pronto.

Bien. Y en Estados Unidos, ha habido proyectos de ley anteriores a nivel federal que buscaban regular la IA. La Ley de Responsabilidad Algorítmica del año pasado, que prácticamente no llegó a ninguna parte. Ahora se corre la voz en la calle de que el senador Chuck Schumer está trabajando en un marco legislativo y lo está haciendo circular. ¿Espera ver acciones reales y concretas aquí en Estados Unidos? ¿Cree que realmente se presentará un proyecto de ley y se aprobará en uno o dos años?

Wald: Diría que es difícil decirlo. Lo que yo diría es, en primer lugar, que es inequívoco. Llevo casi cuatro años trabajando con responsables de políticas sobre este tema específico. Y es inequívoco en este momento que desde que salió ChatGPT, se ha producido este despertar de la IA. Mientras que antes intentaba cerrar sus puertas y decir: "Oye, tengamos una conversación sobre esto", y ahora no puedo ni remotamente seguir el ritmo de las entradas que están llegando. Así que me alienta ver que los responsables de las políticas están tomando esto en serio. Y he tenido conversaciones con numerosos responsables políticos sin revelar cuáles, pero diré que la oficina del senador Schumer está ansiosa, y creo que eso es fantástico. Todavía están ultimando los detalles. Creo que lo importante de la oficina de Schumer es que es una oficina que puede reunir a muchos senadores y reunir a mucha gente para analizar esto. Y una cosa que aprecio de Schumer es que piensa en grande y audaz. Y su nivel de participación me dice: “Si conseguimos algo, no será pequeño. Va a pensar en grande. Va a ser realmente importante”. Entonces, con ese fin, insto a la oficina, como he señalado, a que no solo piense en las regulaciones, sino también en la necesidad crucial de inversión pública en IA. Por lo tanto, esas dos cosas no necesariamente deben combinarse en un gran mega proyecto de ley, pero deben considerarse en cada paso que se dé en conjunto. Que por cada idea regulatoria que se esté pensando, se debe tener un grado de inversión pública en el que también se esté pensando. Para que podamos asegurarnos de tener este ecosistema realmente más equilibrado.

Sé que nos estamos quedando sin tiempo. Entonces tal vez una última pregunta y luego preguntaré si me perdí algo. Pero para nuestra última pregunta, ¿cómo podría un consumidor experimentar el impacto de las regulaciones de IA? Estaba pensando en el GDPR en Europa y en cómo el impacto para los consumidores fue que básicamente tenían que hacer clic en un botón adicional cada vez que iban a un sitio web para decir: "Sí, acepto estas cookies". ¿Cree que las regulaciones sobre IA serían visibles para el consumidor y cambiarían la vida de las personas de manera obvia? ¿O sería mucho más sutil y detrás de escena?

Wald: Esa es una gran pregunta. Y probablemente volvería a plantear otra pregunta. La pregunta es: ¿hasta qué punto la gente ve la IA en su vida diaria? Y no creo que veas mucho de eso, pero eso no significa que no esté ahí. Eso no significa que no haya municipios que estén utilizando sistemas que nieguen o permitan beneficios. Eso no significa que los bancos no estén utilizando esto con fines de suscripción. Así que es realmente difícil decir si los consumidores verán esto, pero la cuestión es que no creo que los consumidores vean la IA en su vida diaria, y eso también es preocupante. Entonces creo que lo que debemos garantizar es que exista un grado de divulgación relacionado con los sistemas automatizados. Y la gente debería ser consciente de cuándo se está aplicando esto y debería ser informada cuando eso esté sucediendo. Esa podría ser una regulación que sí ven, ¿verdad? Pero en su mayor parte, no, no creo que sea tan central en la mente de la gente ni como una preocupación, porque eso no quiere decir que no esté ahí. Está ahí. Y debemos asegurarnos de hacerlo bien. ¿Las personas van a resultar perjudicadas durante este proceso? El primer hombre, creo que fue en 2020, [¿Juan?] Williams, creo que se llamaba quien fue arrestado falsamente por tecnología de reconocimiento facial y lo que eso significó para su reputación, todo ese tipo de cosas, por literalmente no tener asociación. con el crimen.

Entonces, antes de continuar, ¿hay algo más que crea que es realmente importante que la gente comprenda sobre el estado de la conversación en este momento sobre la regulación de la IA o sobre la tecnología en sí? ¿Hay algo que los responsables políticos con los que habla parecen no entender y que a usted le gustaría que supieran?

Wald: El público en general debería ser consciente de que lo que estamos empezando a ver es la punta del iceberg. Creo que ha habido muchas cosas en los laboratorios, y creo que habrá muchas más por venir. Y con todo eso por venir, creo que necesitamos encontrar maneras de adherirnos a algún tipo de argumentos equilibrados. No lleguemos al extremo de decir: “Esto nos va a matar a todos”. Tampoco permitamos un nivel de exageración que diga: "La IA solucionará esto". Por eso creo que debemos poder tener una visión neutral y decir: "Hay algunos beneficios únicos que esta tecnología ofrecerá a la humanidad y tendrá un impacto significativo para mejorar, y eso es algo bueno, pero al mismo tiempo hay Esto conlleva algunos peligros muy graves. ¿Cómo es que podemos gestionar ese proceso?

Para los formuladores de políticas, lo que quiero que sean más conscientes cuando piensen en esto y traten de educarse es que no necesitan saber cómo usar TensorFlow. Nadie les pide que comprendan cómo desarrollar un modelo. Lo que les recomiendo que hagan es que comprendan lo que la tecnología puede hacer, lo que no puede hacer y cuáles serán sus impactos sociales. A menudo hablo con la gente: "Necesito conocer los aspectos más profundos de la tecnología". Bueno, también necesitamos que los formuladores de políticas sean formuladores de políticas. Y, en particular, los funcionarios electos deben tener una pulgada de profundidad pero una milla de ancho. Necesitan saber sobre el Seguro Social. Necesitan saber sobre Medicare. Necesitan saber sobre asuntos exteriores. Por lo tanto, no podemos esperar que los responsables políticos sepan todo sobre la IA. Pero, como mínimo, necesitan saber qué puede y qué no puede hacer y cuál será ese impacto en la sociedad.

Russell, muchas gracias por tomarte el tiempo de hablar conmigo sobre todo esto hoy. Realmente lo aprecio.

Oh, es un placer. Muchas gracias por invitarme, Eliza.

Ese era Russell Wald de Stanford, hablándonos sobre los esfuerzos para regular la IA en todo el mundo. Soy Eliza Strickland y espero que se una a nosotros la próxima vez en Arreglando el futuro.

Bienvenido a Fixing the Future, un podcast de IEEE Spectrum. Soy la editora senior Eliza Strickland y hoy estoy hablando con Russell Wald de la Universidad de Stanford sobre los esfuerzos para regular la inteligencia artificial. Antes de comenzar con este episodio, me gustaría informarles a los oyentes que el costo de la membresía en IEEE tiene actualmente un 50 por ciento de descuento durante el resto del año, lo que les brinda acceso a beneficios, incluida la revista Spectrum y mucha educación y carrera. recursos. Además, obtendrás un excelente Cubo de Rubik con la marca IEEE cuando ingreses el código CUBE en línea. Vaya a IEEE.org/join para comenzar.