Paul Lara

Cyberpunks

Paul Lara

29 Abr, 2024

Humanos en el circuito

 

No cabe duda que la inteligencia artificial puede tener un gran futuro, pero claro, en un futuro aún un tanto lejano, pues para ello debe ser económicamente viable para las empresas, con buen procesamiento, sustentable, que realmente sea segura y deje de depender de los humanos. Puesto de esta manera, suena casi imposible que esto suceda pronto, pero sucederá algún día. Luego de leer algunos artículos de científicos que llevan años trabajando en IA y no de “desarrolladores” que buscan impresionar para ganar inversiones y a ignorantes, hay cosas interesantes a analizar.

Las industrias hoy en día no pueden gastar mil 700 por ciento más de sus recursos en chips Nvidia de IA si no tienen un retorno de inversión rápido y que genere un círculo virtuoso de desarrollo, beneficios sociales y ganancias, ni siquiera siendo Nvidia su inversionista principal.

Una compañía que paga entre 0.36 y un centavo de dólar/consulta por electricidad y agua (escasa) no puede mantener indefinidamente esas consultas por millones de personas que esperan una respuesta a preguntas estúpidas y sin sentido, a veces, o solicitan que se haga un dibujo o video, sólo por ver qué responde una IA generativa.

La industria tendrá que descubrir alguna combinación de aplicaciones que cubra sus costos operativos, aunque sólo sea para mantener las luces encendidas frente a la desilusión de los inversionistas (esto no es opcional: la desilusión es una parte inevitable de toda burbuja).

Actualmente, existen muchas aplicaciones de bajo riesgo para que la IA pueda funcionar bien con la tecnología actual, el procesamiento actual, a pesar de sus muchos –y aparentemente ineludibles– errores (“alucinaciones”).

A las personas que usan IA para generar ilustraciones de sus personajes favoritos involucrados en aventuras épicas no les importa un error. Si el chatbot que impulsa la herramienta automática de conversión de texto a traducción se equivoca en algunas palabras, sigue siendo mucho mejor que la alternativa de hablar despacio y en voz alta en su propio idioma, mientras hace gestos enfáticos con las manos.

Hay muchas aplicaciones de este tipo y muchas de las personas que se benefician de ellas, sin duda, pagarían algo por éstas. El problema –desde la perspectiva de una empresa de IA– es que éstos no son sólo aspectos de bajo riesgo, sino que también son de bajo valor. Sus usuarios pagarían algo por ellos, pero no mucho.

Para que la IA pueda mantener sus servidores prendidos durante la próxima crisis de desilusión que tendrán muchos con la IA actual, las empresas tienen que crear aplicaciones de alto valor. Y no es que no existan ya, pero todas comparten el mismo problema: todas son de alto riesgo, lo que significa que son muy sensibles a los errores.

Estos errores cometidos por aplicaciones que producen códigos, conducen automóviles autónomos o identifican masas cancerosas en radiografías de tórax que son extremadamente importantes, y que no son fiables, a pesar de lo que se diga. Para ello, las empresas están contratando a lo que se llama el humano en el circuito, personas que vigilan por detrás que las aplicaciones que pueden ser riesgosas con IA, eviten cometer errores graves, aunque muchas veces pasen desapercibidos para ellos.

La IA no sólo comete errores: comete errores sutiles, el tipo de errores que son más difíciles de detectar para un ser humano en el circuito, porque son las formas estadísticamente más probables de equivocarse. Claro, notamos errores graves en los resultados de la IA, como afirmar con confianza que un ser humano muerto está vivo.

Las empresas de IA han argumentado que tienen una tercera línea de negocio, una forma de ganar dinero para sus clientes más allá de los obsequios de la automatización a sus nóminas: afirman que pueden realizar tareas científicas difíciles a una velocidad sobrehumana, produciendo conocimientos valorados en miles de millones de dólares (nuevos materiales, fármacos, proteínas) a una velocidad inimaginable. Sin embargo, estas afirmaciones –crédulamente amplificadas por la prensa no técnica– siguen desmoronándose cuando son puestas a prueba por expertos que entienden los dominios esotéricos en los que se dice que la IA tiene una ventaja inmejorable.

Como escribe Brian Merchant, las afirmaciones de la IA son inquietantemente similares a “humo y espejos”: el deslumbrante campo de distorsión de la realidad generado por la tecnología de la linterna mágica del siglo XVII, a la que millones de personas atribuyeron capacidades descabelladas, gracias a las extravagantes afirmaciones de los promotores mal informados de la tecnología.

 

Síguenos en Twitter @DineroEnImagen y Facebook, o visita nuestro canal de YouTube