bookmate game
es

Erik Larson

  • Karen Ortegahas quoted10 months ago
    bombo generalizado que rodea a la IA en nuestra sociedad.
  • Karen Ortegahas quoted3 months ago
    avances se basaban en engaños, en estratagemas ingeniosas de los diseñadores de sistemas para burlar a los interlocutores humanos fingiendo ignorancia o adoptando respuestas evasivas y tácticas diversas cuando las preguntas sacaban al programa de su elemento. El programa ELIZA de Joseph Weizenbaum, quizá el sistema trucado de mayor fama, podía generar la ilusión de un diálogo humano imitando los comentarios de un psicoterapeuta rogeriano a alguno de sus pacientes. He aquí una muestra, con las respuestas de ELIZA en cursiva:
  • Karen Ortegahas quoted2 months ago
    Resulta irónico que a esos programas los llamemos «aprendices» porque, para nosotros, el significado del verbo «aprender» implica en esencia huir de los recursos limitados para alcanzar una comprensión más general de las cosas del mundo. Pero los sistemas que juegan al ajedrez no juegan al go, de mayor complejidad. Ni siquiera los sistemas de go juegan al ajedrez. Incluso el muy publicitado sistema Atari del DeepMind de Google generaliza solo entre diferentes juegos de Atari, y ni siquiera logró aprender a jugar a todos ellos. Los únicos que se le dieron bien fueron aquellos que seguían unos parámetros estrictos. Los sistemas de aprendizaje más potentes son mucho más frágiles y limitantes de lo que podríamos suponer. Pero tiene sentido, porque los sistemas no son más que simulaciones. ¿Qué otra cosa podíamos esperar?
    Los problemas con la inducción
  • Karen Ortegahas quoted2 months ago
    Pero, ya que que la mayor parte del bombo relacionado con el aprendizaje automático —y en especial con el aprendizaje profundo— está relacionada con el aprendizaje supervisado, voy a centrar la discusión principalmente en él. Sin embargo, no olvidemos que todas las limitaciones de origen inductivo que presentan los enfoques de aprendizaje supervisado aparecen con mayor fuerza incluso en el aprendizaje no supervisado. Al centrarno
  • Karen Ortegahas quoted2 months ago
    dos tipos principales de aprendizaje. Cuando los seres humanos etiquetan el dato de entrada para señalar el resultado deseado, se llama «aprendizaje supervisado». Por el contrario, cuando el sistema analiza los patrones que pueda haber en los datos tal y como son, se llama «aprendizaje no supervisado». También hay un término medio. El «aprendizaje semi­supervisado» se inicia con una semilla, o pequeña parte de datos, que ha sido preparada por los seres humanos, y a continuación la va proyectando cada vez sobre una mayor cantidad de datos sin supervisión.
  • Karen Ortegahas quoted2 months ago
    Este hecho tiene una importancia enorme, y se pasa por alto demasiado a menudo en los debates sobre el aprendizaje automático. He aquí otro hecho: los límites del mundo de un sistema de aprendizaje automático quedan precisamente establecidos por los conjuntos de datos que se le proporcionen durante su entrenamiento. El mundo real no deja de generar conjuntos de datos: veinticuatro horas al día, siete días a la semana, a perpetuidad. Por ello, cualquier conjunto de datos dado es solo una fracción muy pequeña de tiempo que representa, en el mejor de los casos, una evidencia parcial del comportamiento de los sistemas del mundo real. Ese es uno de los motivos por los que la larga cola de acontecimientos improbables resulta tan problemática: el sistema no cuenta con una comprensión verdadera del sistema real (en comparación con el simulado). Esto es de una importancia tremenda para los debates sobre el aprendizaje profundo y la inteligencia artificial general, y plantea una serie de consideraciones problemáticas sobre cómo, cuándo y hasta qué punto deberíamos confiar en unos sistemas que técnicamente no comprenden los fenómenos que están analizando (salvo por lo expresado en sus conjuntos de datos durante el entrenamiento). Volveremos sobre estos temas en capítulos posteriores, ya que son capitales para comprender el paisaje del mito.
  • Karen Ortegahas quoted2 months ago
    frecuencia es la asesina del humor. Cuenta el número de artículos periodísticos que incluyen víctimas, pistolas, amenazas y sospechosos que se dan a la fuga. Son de crímenes. El problema del supuesto de frecuencia ante esos ejemplos e
  • Karen Ortegahas quoted2 months ago
    sistema basado en el aprendizaje profundo que controla esta salida no hace más que entrenar un modelo que, con el tiempo, pasa a reconocer el patrón de noticias que te gusta. Analiza tus clics y comienza a ofrecerte más de lo mismo. Las mismas observaciones pueden aplicarse a las sugerencias de Netflix, Spotify, Amazon y otros sitios web que ofrecen búsquedas personalizadas y una experiencia con recomendaciones. Esa conexión entre frecuencia de ejemplo (o características en ejem
  • Karen Ortegahas quoted2 months ago
    caso como este, la IA y el aprendizaje absoluto no nos ayudan en nada. Nos hacen daño. Yerran el tiro por completo. Los sistemas de aparente inteligencia artificial general que usen solo el aprendizaje automático serán, en el mejor de los casos, unos eruditos idiotas y molestos.
    En esencia, la teoría subyacente de la inferencia se encuentra en el meollo del problema. La inducción requiere que la inteligencia sea resultado del análisis de datos, pero la inteligencia llega al análisis de los datos como paso previo y necesario. Siempre
  • Karen Ortegahas quoted2 months ago
    la observación de hechos, por mucho que los analicemos, no nos conduce a una comprensión general ni a la inteligencia.
fb2epub
Drag & drop your files (not more than 5 at once)