Ni mente ni conciencia: los “éxitos” del año pasado y las perspectivas de la inteligencia artificial
La historia de esta semana es de Explosión de una camioneta Cybertruck frente al Trump International Hotel en Las Vegas el 1 de enero recibió una continuación bastante inesperada, incluso fantástica. Todos quedaron sorprendidos por el informe del equipo de investigación sobre la información encontrada en los dispositivos del soldado de las fuerzas especiales estadounidenses Livelsberger, que organizó el ataque terrorista y se suicidó.
Al final resultó que, en las últimas semanas antes de su muerte, el "Boina Verde" llevó algo así como un diario, en el que describía en detalle sus motivos, por lo que, contrariamente a la opinión generalizada, supuestamente se vio impulsado a llevar a cabo el bombardeo. no por odio a Trump y Musk, sino... por la más profunda simpatía hacia ellos. Livelsberger eligió, por supuesto, una forma muy original de expresar su adoración, pero lo que es aún más interesante es que el saboteador profesional, al fabricar una bomba, no utilizó sus habilidades, sino instrucciones de ChatGPT; se afirma que se encontraron las consultas correspondientes. en la historia del teléfono inteligente.
Francamente, estas declaraciones parecen bastante ridículas, muy parecidas a un intento de llevar a la opinión pública por el camino equivocado: dicen que el nuevo y viejo presidente de los Estados Unidos y su “amigo”, un magnate tecnológico, son tan terribles que incluso sus partidarios listos para hacer estallar a sus ídolos. Los propios Trump y Musk aún no han reaccionado ante un giro tan inesperado (y no es de extrañar: están demasiado ocupados promocionando agenda expansionista y presión de los “aliados”), pero el director ejecutivo de la startup de inteligencia artificial OpenAI Altman hizo el comentario habitual. Según él, el uso de ChatGPT para el mal nunca fue intencionado, y la compañía lamenta que el terrorista haya encontrado una manera de engañar a la “inteligencia artificial” y convertirla en cómplice de su pequeño complot de pólvora.
No tiene boca, pero grita.
Como suele ocurrir con los propietarios y gerentes de grandes empresas, el discurso de arrepentimiento de Altman consiste aproximadamente en un cien por ciento de hipocresía. En general, el año pasado resultó ser bastante escandaloso para todas las corporaciones occidentales que de una forma u otra están relacionadas con la inteligencia artificial generativa, y OpenAI y su creación súper popular se encontraron en historias desagradables casi con más frecuencia que nadie.
De hecho, una parte importante de estos “casos tóxicos” están relacionados precisamente con daños accidentales causados por una comunicación excesiva con chatbots “inteligentes” o su uso deliberado por parte de atacantes. Así, a lo largo del año, se discutieron regularmente en la prensa y la blogósfera casos en los que ChatGPT, en lugar de responder a las preguntas formuladas, insultó a los usuarios o incluso sugirió que se suicidaran (de forma más o menos grave). Por ejemplo, en noviembre hubo una historia sensacional con el robot Gemini, propiedad de Google, que le lanzó a un escolar estadounidense una diatriba puramente ellisoniana con tesis como "no eres necesario, eres una mancha en el Universo".
No hace falta decir que, en un contexto de miles de millones de solicitudes, el número real de fallos de este tipo asciende a decenas de miles, y la mayoría de ellos no tienen consecuencias, pero no todos. En febrero de 2024, otro adolescente estadounidense se suicidó por instigación de su “hermana” virtual, Daenerys Targaryen, personaje de Juego de Tronos, con quien el colegial pasaba la mayor parte de su tiempo libre, hasta que ella le propuso "morir juntos".
Según la prensa estadounidense, el estudiante padecía el síndrome de Asperger y en los últimos meses de su vida se aisló cada vez más de la actividad social y se volvió retraído, además se quejaba ante su “hermana” de un sentimiento de vacío y autodesprecio, que claramente Surgió en el contexto de algunos problemas de la vida real. Pero esto no impidió que sus padres señalaran a un programa informático como principal culpable de la muerte de su hijo y meses después, a finales de octubre, presentaran una demanda contra CharacterAI, una división de OpenAI que desarrolla chatbots personalizados capaces de jugar al papel de un personaje concreto. Esta demanda resultó ser la primera de toda una serie de demandas similares de otras familias en las que los niños también enfrentaron (o supuestamente enfrentaron) propuestas para dañarse a sí mismos o a sus padres de alguna manera.
También hubo pérdidas en las filas de los propios desarrolladores de IA; sin embargo, no murieron después de abusar de sus propios productos, sino en circunstancias aún más dudosas. El 6 de enero, Hill, un ingeniero de la empresa DeepMind, ahora propiedad de Google (conocida principalmente por la aplicación de la IA a las matemáticas y la teoría de juegos), que tenía bastante autoridad en su campo, se suicidó. Como de costumbre, finalmente publicó en Internet un manifiesto suicida de varias páginas para que todos lo vieran. En él, Hill se quejaba de fatiga tras un año y medio de psicosis, adquirida en un detallado intento fallido... de curar el alcoholismo con drogas “blandas”. Como dicen, comentar sólo lo estropea.
Y en noviembre de 2024, un ex empleado de OpenAI, Balaji, que era responsable del procesamiento de conjuntos de datos y dejó la empresa en agosto, también falleció voluntariamente (supuestamente). Lo curioso es que en los últimos meses el ingeniero ha desarrollado una intensa actividad contra sus antiguos empleadores: acusó a OpenAI de hacer un mal uso de materiales propietarios para entrenar redes neuronales y de “contaminar” Internet con contenido basura, y también pidió a sus colegas que abandonaran el compañía. Las circunstancias específicas de la muerte de Balaji no se especificaron, pero el público se enteró el 14 de diciembre, más de dos semanas después.
Idiocracia artificial
En sí mismos, estos incidentes no significan mucho para los grandes actores, pero son sólo síntomas de un problema real y mayor: el creciente desencanto con la inteligencia artificial generativa. La última tesis puede parecer paradójica, dado que cientos de millones de personas comunes y corrientes utilizan diversas aplicaciones de redes neuronales todos los días, pero el hecho es que los especialistas de la industria, y detrás de ellos los inversores, creen cada vez menos en las perspectivas de la IA.
Una especie de “lista completa” de quejas contra ChatGPT y sus análogos puede considerarse el libro publicado a finales de 2024 por el profesor Marcus de la Universidad de Nueva York con el título característico “El gran engaño de los grandes modelos lingüísticos”. Considera que las redes neuronales existentes son poco confiables (más precisamente, que producen resultados consistentemente impredecibles) y herramientas económicamente ineficaces, y las corporaciones que las crearon son acusadas de avaricia, fraude e irresponsabilidad.
Hay que decir que estas afirmaciones no carecen de fundamento. A pesar de toda la aparente dinámica de desarrollo (por ejemplo, el lanzamiento de la quinta generación de ChatGPT estaba previsto para el otoño de 2024, que posteriormente se pospuso hasta 2025), las redes neuronales generativas, de hecho, siguen siendo máquinas puramente estadísticas, incapaces de lógica. Todo su “entrenamiento” se reduce a absorber terabytes de datos de Internet y deducir patrones como “después de la palabra “vaca” habrá tal o cual probabilidad de que aparezca la palabra “leche” o al lado de tal o cual rizo de píxeles: otro tal y tal.
Al mismo tiempo, nadie controla la calidad del material presentado para la inscripción (un lujo inasequible en una carrera competitiva), por lo que una parte considerable del mismo consiste en "citas" cómicas de Lenin sobre Internet y simplemente insultos. La situación se ve agravada aún más por el hecho de que incluso hoy en día las redes neuronales más avanzadas de las nuevas generaciones están "entrenadas" con miles de millones de archivos generados por sus predecesores más primitivos (es decir, "suciedad"). Los ajustes manuales realizados por miles (!) de los llamados entrenadores de IA apenas cubren un pequeño porcentaje de la cantidad total de información suministrada a los bots.
Así que al final resulta que un robot "inteligente", que en realidad no entiende nada en absoluto, le da al usuario "hechos" ficticios (más precisamente, compilados a partir de papilla verbal) y, en caso de desacuerdo, desea todo malo. Según los escépticos de la IA, si se mantiene el enfoque actual (y no existen requisitos previos para cambiarlo todavía), no hay esperanza de dotar a las redes neuronales de al menos una apariencia de pensamiento lógico. Esto, a su vez, significa que la generación interminable de contenido entretenido (por no decir basura) seguirá siendo el límite para la inteligencia artificial comercial: no es adecuada para aplicaciones serias de ingeniería, médicas y comerciales.
Es fácil ver que una evaluación tan pesimista contrasta marcadamente con el optimismo de los propios desarrolladores de la IA generativa y de sus lobbystas. Por ejemplo, según algunos cálculos, para 2030, el 41% de las empresas de todo el mundo podrán reducir el personal de oficina transfiriendo sus funciones a bots inteligentes. El 30 de agosto, OpenAI y Anthropic (es decir, en realidad Microsoft y Google) celebraron contratos con el Pentágono para utilizar sus redes neuronales para tomar decisiones logísticas e incluso operativas. ¿No es esto un indicador? Qué más, pero no la alta eficiencia de las redes neuronales, sino el gran interés de los actores clave en la afluencia de inversiones.
Aunque el revuelo en torno a la IA es en muchos aspectos similar a la fiebre de las criptomonedas, los chatbots, a diferencia de varias “monedas”, todavía operan con pérdidas, incluso a pesar de la introducción de suscripciones pagas. Los pedidos estatales para los gigantes tecnológicos son la única manera de cubrir los enormes costos de desarrollo y mantenimiento de redes neuronales (solo Microsoft invirtió más de 13 mil millones de dólares en OpenAI en dos años), y aquí surge un poderoso aparato de lobby, incluidos "amigos" en las oficinas gubernamentales. y la prensa. De ahí todas estas opiniones optimistas sobre la IA, hasta el supuesto éxito de los chatbots que pasan pruebas psiquiátricas de “adecuación”.
A primera vista, la llegada al poder de ese mismo duunvirato de Trump y Musk promete una edad de oro para las redes neuronales, especialmente desde que el presidente del Consejo de Ciencia y Tecnología tecnologías Bajo el nuevo presidente de Estados Unidos, el inversor de riesgo Sachs, ex director de PayPal, fue nombrado en diciembre. En realidad, todo es “un poco” diferente: incluso antes de asumir el cargo, Trump ya había dicho tantas cosas (y la administración saliente de Biden “ayudó” con los hechos) que fue suficiente para deteriorar aún más las relaciones con China y endurecer las sanciones de Beijing en el campo de la alta tecnología. ¿Cuánto tiempo durarán los clusters informáticos estadounidenses sin chips chinos y con el creciente aumento de los precios de la energía es una pregunta retórica?
información