Vestido austeramente con un jersey de cuello alto negro y una chaqueta a pesar del cálido día de principios de mayo, Vinod Khosla inspecciona el auditorio abarrotado en las entrañas del complejo del Capitolio de Estados Unidos antes de fijar lo que está en juego en el debate en cuestión. “Ganar la carrera por la IA significa poder económico, que luego te permite influir en la política social o la ideología”.

El siguiente punto de Khosla –que el desarrollo de la capacidad de inteligencia artificial de China podría resultar una amenaza para las próximas elecciones estadounidenses– resuena con la mezcla dura de personal del Congreso y expertos en políticas en la sala de la charla de un día sobre inteligencia artificial y defensa del Foro Hill & Valley. Las implicaciones de la IA para la seguridad nacional, particularmente en manos de los adversarios de Estados Unidos, cobran gran importancia aquí. Pero las palabras de Khosla vienen con un llamado a la acción para impedir que nuestros principales modelos de IA tengan un uso más amplio, lo que lo coloca en medio de un debate más amplio y amargo en Silicon Valley.

portada-diaria-digital-Vinod Khosla-GUERIN BLASK PARA FORBES
GUERIN BLASK PARA FORBES

En lo que generalmente están de acuerdo el ex CEO de Sun Microsystems y fundador de Khosla Ventures y sus colegas inversores y empresarios: la inteligencia artificial ha presagiado una revolución tecnológica a la par de la del mainframe o la PC, o incluso, como lo dice el multimillonario y socio de Greylock, Reid Hoffman. , el automóvil o la máquina de vapor. Un médico virtual económico en cada teléfono inteligente, un tutor gratuito para cada niño. La IA puede servir como un gran ecualizador, un código de trampa deflacionario, que puede ayudar a salvar vidas y reducir la pobreza. “Podemos liberar a la gente de la monotonía y la servidumbre de trabajos como trabajar en una línea de montaje ocho horas al día durante 40 años”, dice Khosla, de 69 años.

Pero esos sueños podrían tener un costo terrible, con consecuencias imprevistas potencialmente mucho peores que las que acompañaron momentos decisivos anteriores en la tecnología, como una carrera armamentista distópica de IA con China. Si las redes sociales nos trajeron guerras culturales y el uso de la “verdad” como arma, ¿qué daños colaterales podrían acompañar a la IA?

Para Khosla, Hoffman y un poderoso grupo de líderes tecnológicos, existe una manera clara de mitigar consecuencias lamentables e involuntarias: controlar el desarrollo de la IA y regular cómo se utiliza. Los gigantes Google y Microsoft están a bordo, junto con el fabricante de ChatGPT Open-AI, en el que tanto Khosla como Hoffman fueron los primeros inversores. Su opinión de que las barreras de seguridad son necesarias para alcanzar el potencial utópico de la IA también cuenta con la atención del presidente Biden, de quien el dúo de capital riesgo es donante. Esto también resonó en el presidente francés Emmanuel Macron, quien invitó a Hoffman a desayunar el otoño pasado para discutir lo que él llama una nueva “máquina de vapor de la mente”.

“¿Cómo podemos ayudar a tanta gente buena, como los médicos, y a tan poca gente mala, como los delincuentes?” Hoffman, de 56 años y cofundador de LinkedIn, reflexiona sobre el desafío. “Mi opinión es encontrar la manera más rápida de acelerar y al mismo tiempo tomar riesgos inteligentes y al mismo tiempo reconocer esos riesgos”.

tendencia-pez-grande-imagen-en-linea
Reid Hoffman, once veces veterano de Midas, dice que se reunirá con cualquiera que intente hacer de la sociedad un lugar mejor utilizando la IA, en cualquiera de los partidos políticos. “Es importante que la IA sea algo que abarque a toda la sociedad y, con suerte, que luego no sea partidista”. GUERIN BLASK PARA FORBES

Pero una facción cada vez más vocal está haciendo todo lo posible para frustrar a Khosla, Hoffman y todo lo que representan, encabezada por Marc Andreessen, de 52 años, cofundador de Netscape y la firma de capital de riesgo a16z. Dentro de la asociación de Andreessen y su grupo de absolutistas del código abierto, otro grupo amorfo que cuenta entre sus miembros con los directores ejecutivos de las nuevas empresas de inteligencia artificial de código abierto Hugging Face y Mistral, el científico jefe de inteligencia artificial de Meta, Yann LeCun, y el director ejecutivo de Tesla y propietario de X, Elon Musk (a veces). —Tales conversaciones sobre desastres y riesgos a nivel estatal a menudo se consideran una jugada descarada por parte de los primeros detentadores del poder de AI para conservarlo.

“No hay ningún problema de seguridad. Los riesgos existenciales no existen con la tecnología actual”, afirma LeCun. “Si estás a la cabeza, dices que necesitas regular porque es peligroso, así que mantenlo cerrado”, coincide el inversor en IA Martín Casado, colega de Andreessen. “Esa es la clásica captura regulatoria. Esta es la retórica que la gente usa para cerrar las cosas”.

En su lugar, Andreessen y sus aliados imaginan un futuro en el mejor de los casos en el que la IA prevenga enfermedades y la mortalidad temprana, y todos los artistas y empresarios trabajen con un asistente de IA para mejorar sus trabajos. La guerra, sin errores humanos sangrientos, tendrá menos víctimas humanas. El arte y las películas mejorados con IA aparecerán en todas partes. En un manifiesto que detalla su posición el año pasado, Andreessen, quien rechazó una solicitud de entrevista para esta historia, sueña con un paraíso de código abierto, sin barreras regulatorias que desaceleren el desarrollo de la IA ni fosos burocráticos que protejan a las grandes empresas a expensas de las nuevas empresas.

Los tres inversores multimillonarios aparecen en la Lista Midas de este año de los principales inversores en tecnología del mundo por inversiones que van más allá de la IA (con Hoffman en el puesto 8, Khosla en el 9 y Andreessen en el 36), pero es en la categoría emergente donde sus La influencia se siente más agudamente. Estos destacados líderes de la última revolución tecnológica están exponiendo sus puntos de vista sobre los temas clave de la próxima.

“Una bomba afecta a una zona. La IA afectará a todas las áreas simultáneamente”.

¿Innovación segura o camarilla anticompetitiva? ¿Tecnoutopía o salvaje oeste caótico? Hable con los portavoces autoproclamados de ambos bandos y encontrará puntos de vista en gran medida opuestos. Las partes involucradas ni siquiera pueden ponerse de acuerdo sobre quién es quién; todos son optimistas, excepto unos con otros. Para los “aceleracionistas” como Andreessen, cualquiera que quiera reducir la velocidad al acercarse a las curvas, como defiende Hoffman, es un “desacelerador”; Los académicos y líderes que han llamado a la IA una amenaza existencial para la humanidad son ” fatalistas “. Mientras tanto, Hoffman dice que se autodenomina tecnooptimista desde mucho antes de que Andreessen convirtiera el término en un credo. “Aprecio que Marc toque el tambor”, dice. “Tengo muchos más matices en materia de código abierto que él”.

En lo que sí están de acuerdo: quienquiera que prevalezca el argumento influirá en el futuro de lo que Andreessen llama “muy posiblemente la cosa más importante (y mejor) que nuestra civilización haya creado jamás”. Y, de todos modos, hay mucho dinero por ganar.

En mayo de 2023, el director ejecutivo de OpenAI, Sam Altman, apareció en el Capitolio para una reunión del subcomité del Senado sobre IA. El fondo de su mensaje: Regulanos. Para sus oponentes, este fue el momento de quitarse la máscara que estaban esperando. Tres meses antes, Musk, que había cofundado y financiado OpenAI cuando todavía era una organización sin fines de lucro de código abierto, había recurrido a X para denunciar la reciente infusión de capital multimillonaria de Microsoft para OpenAI. Desde sus raíces sin fines de lucro, OpenAI había evolucionado hasta convertirse en una “compañía de código cerrado y máxima ganancia efectivamente controlada por Microsoft”, dijo Musk.

Para Khosla y Hoffman, quienes se reunieron con Altman al menos una vez para hablar de estrategia, pero por lo demás se mueven en círculos separados, la voluntad de OpenAI de llegar a un acuerdo es cómo hacer las cosas. Ya sea que Hoffman esté hablando con Biden, el Papa Francisco o la secretaria de Comercio de Estados Unidos, Gina Raimondo, una colaboradora frecuente en los últimos meses, sus preguntas son similares: ¿Cómo cambiarán las vidas de los electores gracias a la IA? ¿Qué pasa con sus trabajos? ¿Cuándo deberían estar emocionados por los beneficios o ser cautelosos con los riesgos? “Tienes que demostrar que entiendes cuál es su juego principal y que pueden confiar en ti para descubrirlo”, dice Hoffman. “Si tu acercamiento al gobierno es decirle ‘apártate de mi camino’, entonces no estás ayudando en su juego”.

Una avalancha de apariciones en podcasts, publicaciones en LinkedIn e incluso un libro asistido por IA sobre el tema ayudan a Hoffman a demostrar que es consistente en sus posiciones, dice. También es importante aceptar que muchos ciudadanos –desde artistas y académicos hasta empresarios y científicos– podrían no compartir la opinión de que el desarrollo de la IA es, en primer lugar, algo bueno. Gracias a la ciencia ficción, muchos piensan que la IA que salió mal es como robots asesinos o una inteligencia sobrehumana que decide acabar con la humanidad. “Siento una profunda empatía con la preocupación en torno a la IA”, afirma Hoffman. “Pero es como decir: ‘No quiero que los hermanos Wright despeguen hasta que sepamos cómo evitar accidentes aéreos’. Simplemente no funciona de esa manera”.

Khosla dice que él y Hoffman se encuentran en “lugares muy similares” en sus opiniones políticas. “Creo que un enfoque equilibrado es mejor para la sociedad, ya que reduce el riesgo y al mismo tiempo preserva las ventajas”, afirma. Como coanfitrión de los eventos de recaudación de fondos de Silicon Valley para Biden en este ciclo de campaña, envió un comentario a la Oficina de Derechos de Autor de EE. UU. en octubre en defensa de los modelos de IA que se entrenan en material protegido por derechos de autor (con opciones de exclusión voluntaria).

Pero más recientemente, Khosla ha adoptado un tono más siniestro, comparando el trabajo de OpenAI con el Proyecto Manhattan que construyó la bomba atómica. (En X, le planteó la pregunta directamente a Andreessen: ¿Seguramente no habrías abierto eso? ) Si no se controla, ha argumentado Khosla, la IA plantea un riesgo de seguridad aún peor. “Una bomba afecta a una zona. La IA afectará a todas las áreas simultáneamente”, afirma.

No es una bomba lo que preocupa a Hoffman. Pero se podría entrenar un modelo de IA disponible gratuitamente para generar y luego poner a disposición de todos, un arma biológica que podría acabar con 100 millones de personas. “Una vez que se abre uno de estos problemas, no se puede revertir”, afirma. “Mi posición es: solucionemos esas cuestiones realmente urgentes que pueden tener un impacto enorme en millones de personas. En otras cosas, mira, puedes volver a poner al genio en la botella”.

Marc Andreessen, once veces inversor en la Lista Midas, no dudará en llamar la atención de sus pares de Midas.
Ahora en su undécima lista, Marc Andreessen no dudará en llamar la atención de sus pares de Midas en línea. “Vinod está presionando para prohibir el código abierto”, publicó en X en marzo. ETHAN PINES PARA FORBES

Consideran que una respuesta apropiada sería una regulación “bastante ligera”, como la orden ejecutiva de Biden de octubre, que pedía una mayor supervisión de los fabricantes de modelos, incluido el intercambio de los resultados de las pruebas de capacitación y el trabajo para crear nuevos estándares de seguridad previos a su lanzamiento. Pero eso no sienta bien al grupo de Andreessen. Las “grandes tecnológicas” (pensemos en Google y Microsoft) y los “nuevos titulares” (OpenAI y Anthropic, fuertemente respaldados por las grandes tecnológicas) tienen un objetivo común, afirmó Andreessen: formar un “cártel protegido por el gobierno” que asegure sus intereses “compartidos”. agenda.” “Las únicas alternativas viables son Elon, las nuevas empresas y el código abierto, todas ellas bajo un ataque concertado. . . con muy pocos defensores”, escribió Andreessen en X.

Para Casado, que vendió la startup de redes Nicira por más de mil millones de dólares a VMware en 2012, es una historia que él y Andreessen han visto antes: los legisladores, molestos por el poder acumulado por empresas de redes sociales como Meta, todavía están librando la última guerra regulatoria. .

Es por eso que esta vez, muchos ejecutivos de tecnología están tratando de ser amables, incluso si simpatizan con el espíritu de código abierto y centrado en las startups que durante mucho tiempo ha sido fundamental para Silicon Valley. Creen que es mejor autoimponerse reglas federales ahora que dejar que estados como California impongan sus propias reglas o, peor aún, la mano dura de la Unión Europea, que aprobó su primer proyecto de ley sobre IA en marzo.

“No puedo decirte con qué frecuencia hablo con alguien y me dice: ‘Martin, estoy de acuerdo contigo, pero van a regular algo, así que démosle un poquito’. Vamos a asumir una pérdida, así que dictemos la pérdida’”, dice Casado. “El debate es útil porque obliga a las personas a escribir sus posiciones”, responde el cofundador de Anthropic, Jack Clark. “Silicon Valley clásicamente no se involucra suficientemente en políticas hasta que es demasiado tarde”.

“Cuéntame los incentivos y te mostraré el resultado”. Esa idea, atribuida al fallecido legendario inversor Charlie Munger, resume la posición de Sequoia en este enfrentamiento, dice el socio Pat Grady (Midas No. 81), que ha invertido en el repositorio de modelos Hugging Face y Open-AI, así como en Harvey, la startup legal de software de IA.

Ciertamente hay una fuerte dosis de egoísmo en las posiciones de Hoffman, Khosla, Andreessen y otros en la primera línea ideológica de AI. El primer cheque de 50 millones de dólares de Khosla para OpenAI podría llegar a valer 100 veces más. También ha respaldado a empresas en Japón e India, como Sarvam AI, con sede en Bengaluru, que están desarrollando sus propios modelos soberanos. Un beneficio adicional: actuar como un baluarte contra la influencia de China. “Esa es parte de la razón por la que creamos Sarvam AI, para crear un ecosistema de IA dentro de nuestro país, para que no dependamos” de China o Estados Unidos, dice el director ejecutivo Vivek Raghavan.

Hoffman invirtió en la organización sin fines de lucro OpenAI a través de su fundación, no de su empresa Greylock. Pero tiene estrechos vínculos con Microsoft, que adquirió LinkedIn por 26.000 millones de dólares y donde forma parte de la junta directiva, y fue un intermediario clave en la profunda relación de Microsoft con OpenAI. Meses antes de la inversión multimillonaria del gigante tecnológico en enero de 2023, Hoffman había organizado una reunión de ejecutivos de ambas empresas, incluidos Altman y el director ejecutivo de Microsoft, Satya Nadella, en la casa del cofundador Bill Gates. También trabajó con el unicornio Adept AI, una startup respaldada por Greylock que ha recaudado un total de 415 millones de dólares para crear asistentes de trabajo de IA. Y en 2022, Hoffman cofundó Inflection AI con su amigo cercano y cocreador de Google DeepBrain, Mustafa Suleyman, quien recientemente partió para dirigir los esfuerzos de IA del consumidor en Microsoft.

Andreessen también está comprometido ideológica y financieramente. Es miembro de la junta directiva de Meta, que abrió el código abierto de su competidor GPT-3, Llama, cuyas versiones más recientes se lanzaron con gran fanfarria en abril. En diciembre pasado, durante el mismo año que supuestamente compró acciones de Open-AI, a16z lideró una ronda de inversión de más de 400 millones de dólares en su rival de código abierto más ruidoso, Mistral, con sede en París (que ahora, según se informa, está recaudando nuevos fondos con una valoración de 6 mil millones de dólares). La empresa se negó a comentar sobre sus acciones de OpenAI. Mientras tanto, el equipo interno de A16z de 27 expertos en derecho y políticas ha ayudado a elaborar comentarios públicos recientes a la FTC y una carta abierta a la administración de Biden advirtiendo contra las implicaciones de su orden ejecutiva para las nuevas empresas de código abierto como Mistral.

Eso no ha impedido que el campo anti-regulación del código abierto denuncie que están en desventaja. “Los fatalistas están ganando. Están mucho más organizados”, dice Bill Gurley, ex inversor de Midas Lister y Benchmark, quien cree que Google, Microsoft, OpenAI y Anthropic están asustados por la rapidez con la que se están poniendo al día las alternativas de código abierto, lo que corre el riesgo de que sus costosos modelos se conviertan en productos básicos. “No ha habido este esfuerzo concertado en torno a la nueva tecnología en Washington, con la excepción de Sam Bankman-Fried”, dice, citando el nombre del ex director ejecutivo convicto del criptoexchange FTX en quiebra.

En OpenAI, el director de operaciones, Brad Lightcap, se ríe de estas acusaciones como si fueran pura tontería: “No sé si estaría de acuerdo, pero estamos acostumbrados”, dice. Suleyman, de Microsoft, responde que si bien pueden argumentar “unos pocos grados hacia la izquierda o hacia la derecha”, los líderes tecnológicos que apoyan el potencial de la IA están en última instancia en el mismo barco. (Google no respondió a una solicitud de comentarios.) Pero los ojos del típicamente cuidadosamente diplomático Hoffman brillan ante las bravuconadas de Gurley. “Le habría dado la bienvenida a Bill si se uniera a mí en la junta directiva de Mozilla durante 11 años y hubiera dedicado su tiempo a lo que dice”, le dice a Forbes, salpicando una obscenidad. “No sea el recién llegado Sr. Open Source sólo porque parece bueno para su inversión”.

Seguir el interés propio es, por supuesto, una gran parte de la responsabilidad fiduciaria de una empresa pública, señala Mike Volpi (Midas No. 33), socio de Index Ventures, director de la junta directiva del unicornio modelo de inteligencia artificial Cohere, centrado en los negocios. Volpi dice que ve la preocupación de que los mayores fabricantes de modelos estén usando su influencia para asegurar una ventaja temprana como una explicación parcial “válida”. Pero como los proveedores más populares de este tipo de herramientas para los consumidores, señala, naturalmente también buscarán abordar los temores de amplios sectores de la población que no están convencidos de que la IA sea algo tan bueno en general. “Tienen mucha más potencia de fuego, pero también sirven a más personas”, afirma.

Luego está Musk. Un firme partidario del lado del código abierto, el hombre a veces más rico del mundo pidió en marzo de 2023 una pausa de seis meses en el desarrollo del modelo de IA por motivos de seguridad, lo más “pesadilla” posible. No sucedió, y cuatro meses después Musk anunció su propio competidor OpenAI, X.ai, y luego demandó a sus antiguos colaboradores por desviarse de su misión. (OpenAI se refirió a una publicación de blog de marzo que decía que “tenemos la intención de actuar para desestimar todas las afirmaciones de Elon” y declinó hacer más comentarios). Según se informa, X.ai se acercaba a una valoración de 18 mil millones de dólares, aproximadamente a la par con la de Anthropic, en mayo.

Como señaló a Forbes un fundador entre la audiencia de la charla de Khosla en Washington , hay una ironía en juego: los más optimistas sobre las capacidades de la IA son a menudo los más preocupados por su mal uso. Para ellos, bloquear sus modelos líderes y establecer un marco regulatorio

marco actual podría significar, literalmente, la vida o la muerte para millones de personas. Podría decirse que sus rivales, que piensan que estos temores son exagerados, están más fundamentados en cuanto al impacto dramático que tendrá la IA.

“O la IA es una gran amenaza existencial aterradora y los grandes laboratorios de IA deben ser nacionalizados y militarizados *ahora mismo*”, publicó Andreessen en marzo, “o la IA es sólo software y matemáticas, y el alarmismo y el lobby para la captura regulatoria necesitan para detener. Uno o el otro.”

Andreessen ha dicho que supone que los agentes chinos ya están descargando actualizaciones de las principales empresas de inteligencia artificial de Estados Unidos todas las noches. Por lo tanto, restringir el acceso a los modelos es como cerrar con llave la puerta de entrada cuando los ladrones están dentro de la casa. En cambio, sostiene, Estados Unidos debería utilizar su “pleno poder” para impulsar el dominio estadounidense de la IA, incluida la exportación a la propia China.

Para Hoffman y aquellos que están a favor de la regulación, la posibilidad de que otros conviertan un modelo en un arma no es razón para dejar nosotros mismos “las llaves en el encendido de un tanque”, como dice Clark de Anthropic. Al restringir el acceso a los modelos de vanguardia, es posible que Estados Unidos no impida a sus adversarios sus propios avances, y mucho menos lo que decidan hacer con ellos. Pero puede hacer que sigan tratando de ponerse al día, sostiene Khosla. “No creo en el argumento del gato fuera de la bolsa”, dice. En cuanto a la influencia global: muchas herramientas de IA de código abierto seguirán estando disponibles, añade, y las demás tendrán licencia comercial. “El resto del mundo está siguiendo el ejemplo de lo que está sucediendo en Estados Unidos”

Un futuro de innovación feroz con consecuencias inimaginablemente tensas. Un panorama tecnológico sofocado en el que la innovación ha sido restringida por unos pocos demasiado cautelosos. Ninguna de las partes cree que el futuro del otro sea un resultado realista; Ambos sostienen que, si prevalece su razonamiento, no hay necesidad de tomar una decisión.

Pero todos sienten una sensación de urgencia, ya sea para dar forma a la conversación con los legisladores o para garantizar que las partes interesadas menos poderosas no se queden atrás. Fei-Fei Li, pionera en este campo y codirectora del Instituto de IA centrada en el ser humano de Stanford, dice que siente una “verdadera preocupación” por lo que significan las restricciones regulatorias para el mundo académico y el sector público. “Incluso en una selva tropical, de vez en cuando los árboles grandes tienen que encontrar formas de dejar que la luz del sol baje al nivel inferior para que las flores florezcan mucho más”, advierte Li.

Hoffman es más optimista. “El juego está en marcha y todos queremos asegurarnos de que de él salgan las cosas correctas para la humanidad”, responde. “Creo que es muy pronto, y cualquiera que piense que conoce la forma correcta de adoptar políticas en este momento se está engañando a sí mismo o a usted”, añade. “Tenemos que aprenderlo juntos”.

Información adicional de Richard Nieva y Kenrick Cai.

Este artículo fue publicado originalmente por Forbes US.

Te puede interesar: Las aplicaciones VPN gratuitas están recopilando datos de los escolares de EU

 

Siguientes artículos

políticas-inteligencia-artificial China
Cofundador de Twitter defiende iniciativas de código abierto para la IA
Por

El cofundador de Twitter sostuvo que la IA debería ser compartida por medio de códigos abiertos para que los usuarios no...