Anuncios
U.S. markets close in 2 hours 28 minutes
  • S&P 500

    5,122.38
    +58.18 (+1.15%)
     
  • Dow Jones

    38,652.27
    +426.61 (+1.12%)
     
  • Nasdaq

    16,137.18
    +296.22 (+1.87%)
     
  • Russell 2000

    2,035.90
    +19.79 (+0.98%)
     
  • Petróleo

    78.34
    -0.61 (-0.77%)
     
  • Oro

    2,306.20
    -3.40 (-0.15%)
     
  • Plata

    26.67
    -0.15 (-0.57%)
     
  • dólar/euro

    1.0769
    +0.0042 (+0.39%)
     
  • Bono a 10 años

    4.5160
    -0.0550 (-1.20%)
     
  • dólar/libra

    1.2547
    +0.0014 (+0.11%)
     
  • yen/dólar

    152.8770
    -0.8020 (-0.52%)
     
  • Bitcoin USD

    61,928.86
    +2,827.38 (+4.78%)
     
  • CMC Crypto 200

    1,339.64
    +62.67 (+4.91%)
     
  • FTSE 100

    8,213.49
    +41.34 (+0.51%)
     
  • Nikkei 225

    38,236.07
    -37.98 (-0.10%)
     

Lo que revela la seguidilla de despidos en Google: la última destitución pone el ojo en su Inteligencia Artificial

Campus principal de Google en Mountain View, California, el 12 de septiembre de 2017. (Christie Hemm Klok/The New York Times).
Campus principal de Google en Mountain View, California, el 12 de septiembre de 2017. (Christie Hemm Klok/The New York Times).

Menos de dos años después de que Google despidió a dos investigadoras que criticaron los sesgos integrados en los sistemas de inteligencia artificial, la empresa despidió a un investigador que cuestionó un artículo que la empresa publicó sobre las habilidades de un tipo especializado de inteligencia artificial usado en la fabricación de chips de computadora.

El investigador, Satrajit Chatterjee, lideró un equipo de científicos que cuestiona el celebrado artículo de investigación publicado el año pasado en la revista Nature y que declaraba que las computadoras podían diseñar ciertas partes de un chip informático con más rapidez y calidad que los humanos.

Chatterjee, de 43 años, fue despedido en marzo, poco después de que Google le dijo a su equipo que no publicaría un artículo que refutaba algunas de las aseveraciones realizadas en Nature, según comentaron cuatro personas enteradas de la situación que no tenían autorización para hablar de manera oficial al respecto. Google confirmó en una declaración por escrito que la relación laboral con Chatterjee había sido “rescindida con causa justificada”.

PUBLICIDAD

Google se rehusó a dar más detalles sobre el despido de Chatterjee, pero sí defendió con vehemencia la investigación que él criticó y la disposición de la compañía a publicar la valoración del investigador.

“Examinamos a fondo el artículo original de Nature y nos mantenemos firmes en los resultados arbitrados”, declaró Zoubin Ghahramani, vicepresidente de Google Research, en un comunicado por escrito. “También investigamos a cabalidad las afirmaciones técnicas de una propuesta posterior y esta no cumplió con nuestros estándares de publicación”.

No es el único

El despido de Chatterjee es el conflicto más reciente que se ha vivido en Google Brain, un equipo de investigación de inteligencia artificial que se considera clave para el futuro de la empresa. Tras invertir miles de millones de dólares para contratar a los mejores investigadores y crear nuevos tipos de automatización por computadora, Google ha batallado con una amplia variedad de quejas sobre cómo construye, utiliza y presenta esas tecnologías.

Las tensiones entre los investigadores de Google son un reflejo de las luchas mucho más grandes que se libran en toda la industria tecnológica, que enfrenta una miríada de preguntas sobre las nuevas tecnologías de inteligencia artificial y los espinosos temas sociales que han enredado a estas tecnologías y a las personas que las desarrollan.

La disputa reciente también sigue un patrón familiar de despidos y acusaciones contrapuestas de mala conducta entre los investigadores de IA en Google, una inquietud creciente para una compañía cuyo futuro depende de integrar la inteligencia artificial en todo lo que hace. Sundar Pichai, director ejecutivo de la empresa matriz de Google, Alphabet, ha comparado la IA con la llegada de la electricidad o el fuego, por lo que la denominó una de las iniciativas más importantes de la humanidad.

ARCHIVO -- Timnit Gebru en Cambridge, Massachusetts, el 29 de diciembre de 2017. Gebru fue despedida en 2020 de su puesto como líder del equipo de ética en inteligencia artificial de Google. (Cody O'Loughlin/The New York Times).
ARCHIVO -- Timnit Gebru en Cambridge, Massachusetts, el 29 de diciembre de 2017. Gebru fue despedida en 2020 de su puesto como líder del equipo de ética en inteligencia artificial de Google. (Cody O'Loughlin/The New York Times).

En diciembre de 2020, Google despidió a Timnit Gebru, una de las directoras de su equipo de ética en inteligencia artificial, después de que criticó el método de contratación de minorías en la empresa e insistió en publicar un artículo de investigación que destacaba fallas en un nuevo tipo de sistema de inteligencia artificial para aprender idiomas.

Unos meses después, la empresa despidió a Margaret Mitchell, la otra directora del equipo, quien denunció públicamente la manera en que Google había manejado la situación con Gebru. La compañía afirmó que Mitchell había violado su código de conducta.

El artículo de Nature, publicado en junio del año pasado, promocionaba una tecnología llamada aprendizaje por refuerzo que, según el artículo, podía mejorar el diseño de los chips de computadora. La tecnología fue aclamada como un avance para la inteligencia artificial y una mejora importante para los métodos existentes del diseño de chips. Google declaró que utilizaba esta técnica para desarrollar sus propios chips de computación con inteligencia artificial.

Qué pasó con exactamente con Chatterjee

Google se había dedicado durante años a aplicar la técnica de aprendizaje automático al diseño de chips informáticos, y publicó un artículo similar un año antes. En ese entonces, Google le pidió a Chatterjee, quien tiene un doctorado en ciencias informáticas de la Universidad de California, campus Berkeley, y había trabajado como científico investigador en Intel, que revisara si se podía vender la técnica o la licencia de la tecnología a una empresa de diseño de chips, según dijeron personas familiarizadas con el tema.

Sin embargo, en un correo electrónico interno, Chatterjee expresó reservas sobre las afirmaciones que hacía el artículo y cuestionó si la tecnología se había sometido a pruebas rigurosas, según comentaron tres de las personas enteradas.

Mientras continuaba el debate sobre esa investigación, Google le presentó a Nature otro artículo para publicar. Para esta propuesta, Google le hizo unos ajustes al artículo anterior y eliminó los nombres de dos autores, que habían trabajado de cerca con Chatterjee y también habían expresado preocupaciones sobre las afirmaciones principales del artículo, según dijeron las personas familiarizadas.

Cuando se publicó el artículo nuevo, algunos investigadores de Google se quedaron sorprendidos. Consideraban que no se había seguido el proceso de aprobación de publicaciones que Jeff Dean, el vicepresidente ejecutivo de la empresa, quien supervisa la mayoría de sus proyectos de IA, afirmó que era necesario tras el despido de Gebru, según revelaron las personas informadas.

Google y una de las dos autoras principales del artículo, Anna Goldie, quien lo escribió con una colega experta informática, Azalia Mirhoseini, indicaron que los cambios realizados al artículo previo no requerían el proceso completo de aprobación. Google permitió que Chatterjee y un puñado de investigadores internos y externos trabajaran en un artículo que disputara algunas de sus aseveraciones.

El equipo presentó el artículo de refutación ante un comité de resolución para que aprobara su publicación. Meses después, el artículo fue rechazado.

Estándares en entredicho

Los investigadores que trabajaron en el artículo de refutación buscaron escalar el asunto hasta Pichai y la junta directiva de Alphabet, según dijeron. Estos argumentaron que la decisión por parte de Google de no publicar la refutación contravenía sus propios principios con respecto a la inteligencia artificial, entre ellos, defender altos estándares de excelencia científica. Al poco tiempo, le informaron a Chatterjee que ya no era miembro del personal, según narraron las personas enteradas.

Goldie reveló que Chatterjee había solicitado dirigir su proyecto en 2019 y que ellas habían rechazado su oferta. Luego, cuando lo criticó, contó Goldie, no pudo fundamentar sus quejas e ignoró las pruebas que ellas presentaron como respuesta.

“Sat Chatterjee ha librado una campaña de desinformación contra mi persona y Azalia durante más de dos años”, expresó Goldie en una declaración por escrito.

Goldie sostuvo que su trabajo había sido revisado por pares de Nature, una de las revistas científicas más prestigiosas y además comentó que Google había usado sus métodos para construir nuevos chips y que estos chips se estaban usando actualmente en los centros informáticos de datos de Google.

Laurie M. Burgess, la abogada de Chatterjee, dijo que era decepcionante que “ciertas autoras del artículo de Nature estén tratando de reprimir un debate científico al difamar y atacar al doctor Chatterjee solo porque este busca la transparencia científica”. Burgess también cuestionó el liderazgo de Dean, quien fue uno de los 20 coautores del artículo de Nature.

“Los actos de Jeff Dean para impedir la publicación de todos los datos experimentales relevantes, no solo los datos que respaldan sus hipótesis predilectas, deberían ser sumamente preocupantes tanto para la comunidad científica como para la sociedad en general que consume servicios y productos de Google”, advirtió Burgess.

Dean no respondió a una solicitud de comentarios.

© 2022 The New York Times Company

TAMBIÉN TE PUEDE INTERESAR | EN VIDEO

Tendencias 2022: La tecnología impulsa el desarrollo del sistema financiero