Inicio > Actualidad, Ciencia, Medicina > Inteligencia Artificial a la vuelta de la esquina y hasta en la sopa

Inteligencia Artificial a la vuelta de la esquina y hasta en la sopa


Lejos quedan ya las victorias de programas de ordenador frente a los mejores ajedrecistas o jugadores de Go o de póker. Ahora la inteligencia artificial está dando verdaderos pasos de gigante en tareas intelectuales que tradicionalmente se consideraban únicas al ser humano.

Así dos grupos de investigadores de países diferentes han abierto la puerta a una verdadera revolución en el conocimiento. Primero, científicos de la universidad californiana de Stanford en California han desarrollado un programa de ordenador que ha sido capaz en tan sólo un día en analizar las propiedades físico-químicas de los diferentes elementos quimicos y con esa información ha recreado la famosa Tabla Periódica de los Elementos que se enseña en Química elemental.

Un segundo grupo ha realizado otro notable avance en inteligencia artificial. Alimentando con miles de historias clínicas sobre enfermedades neurológicas el programa de ordenador desarrollado en una universidad china ha sido capaz de diagnosticar correctamente cerca del 90% de los casos objeto de estudio y en tan sólo 15 minutos. Para poner en valía la hazaña médica, indicar que un grupo de 15 prestigiosos especialistas de diversos hospitales chinos consiguieron diagnosticar correctamente algo menos del 70% de los casos clínicos. Como indica un experto en el campo, estos prestigiosos médicos obtuvieron una puntuación muy alta, porque en realidad el común de los especialistas suele errar más.

Y aunque el jurado de la competición ha declarado que la inteligencia artificial nunca reemplazará a los profesionales, sino que funcionará de forma similar al uso que un conductor le da a un GPS, o mucho me equivoco o dentro de un par de décadas todo el diagnóstico clínico estará automatizado en cualquier hospital que se precie y quien sabe que más cosas. ¡Multivac y Skinet están tomando el control!

Entradas relacionadas:


  1. Paco
    4 julio, 2018 en 12:46

    El problema es que existe un sesgo enorme en estas noticias. Sólo salen los aciertos y no los fracasos.
    Da una falsa sensación de triunfo que está bastante lejos de la realidad.

    Por ejemplo:
    https://hardzone.es/2017/11/11/inteligencia-artificial-loca-trata-matarte/

    La IA podrá ser un apoyo muy útil en breve, pero está muy muy lejos de la fiabilidad necesaria para sustiuir a nadie en un hospital.
    Además hay que recordar que este tipo de IA no aseguran, por definición, una solución óptima. Sólo una aproximación a ella en base a ciertos criterios de parada.

  2. 4 julio, 2018 en 13:38

    Paco el caso que comentas es el típico de ir demasiado deprisa. En la actualidad el diagnóstico por IA parece que es mejor respecto al de humanos en determinadas enfermedades como procesos oncológicos, puesto que no está a punto en todas. Sin embargo en la fase de tratamiento todavía los algoritmos no están muy desarrollados y fallan bastante. El problema fue que la empresa vendió todo como un paquete y así el sistema diagnosticó correctamente y se equivoco en el tratamiento a recetar en bastantes pacientes. De todas formas el sistema estaba en pruebas y ese error no supuso peligro alguno para los pacientes y es más que seguro que en unos pocos años el médico virtual sobrepasará en todo a los humanos.

  3. Paco
    4 julio, 2018 en 13:48

    Te lo parece porque cuando un estudio sale favorable, se publica y aparece en todas partes.
    Pero cuando fracasa o no se divulga o se da el mínimo bombo.
    Porque hay que recordar que ésto no se hace por amor al arte, no son ONGs los que desarrollan esto. Son empresas que quieren ganar dinero con ello.
    Publicitar tus fracasos es suicida, así que no se hace y siempre que se puede se meten cláusulas que no permiten divulgar el resultado a los participantes.

    Hay apartados donde funcionan bastante bien, en lo relacionado con analizar imágenes. Más que nada porque en este tema hay muchísmos años de investigación, la visión por ordenador está investigada desde hace mucho tiempo y hay dónde apoyarse. Otro problema que no se suele comentar es que al no tener contexto dan también muchos falsos positivos.
    Eso es un ejemplo de IA que se usará de apoyo. Por simplificar, la propia máquina que hace la prueba daría “su opinión” junto con la imagen. Eso es en realidad en lo que se está trabajando de aplicación más directa.

    Como he puesto, IA de apoyo en breve. Para una IA sustituyendo quedan muuuuchos años.

  4. 4 julio, 2018 en 14:38

    Paco

    Aunque son empresas quienes desarrollar la IA, son hospitales los que están probando su validez con sus pacientes, tanto en el caso chino de sólo diagnóstico como el danés que indicabas en el link en donde se valoraba tanto el diagnóstico como el tratamiento. Es decir que vamos sabiendo tanto de los errores como de los éxitos.

    “Otro problema que no se suele comentar es que al no tener contexto dan también muchos falsos positivos.”

    Habrá que ver los números de los falsos positivos de la IA frente a los humanos, pero parece que no van muy a la zaga. Mira este paper de cáncer gástrico:

    https://www.ncbi.nlm.nih.gov/pubmed/29335825

    Y quizás algo muy importante que se nos pasa por alto, el tiempo. Mientras que por ejemplo en el artículo que he mencionado antes la IA analizó en 47 segundos más de 2.000 scaneres de todos los pacientes, los humanos necesitaron obviamente muchísimo más tiempo en valorar las pruebas.

    En otro artículo sobre cáncer de mama los investigadores concluyen que

    “In the setting of a challenge competition, some deep learning algorithms achieved better diagnostic performance than a panel of 11 pathologists participating in a simulation exercise designed to mimic routine pathology workflow; algorithm performance was comparable with an expert pathologist interpreting whole-slide images without time constraints.”

    https://www.ncbi.nlm.nih.gov/pubmed/29234806

    Así que blanco y en botella, en un sistema sanitario como por ejemplo el español en donde el médico está sobresaturado de trabajo no puede desarrollar todas sus capacidades y la tasa de aciertos baja inexorablemente. Y no olvidemos que cada médico es un mundo, un profesional menos experto o simplemente con problemas familiares o de otro tipo o en una sesión clínica después de una guardia de 24 horas (que todavía se siguen haciendo) es mucho más susceptible de cometer errores, simplemente porque es humano.

    Y no es lo mismo que estudie las pruebas de tu posible cáncer raro una eminencia mundial (que está sólo accesible en la Clínica Mayo y similares, a las que el común de los mortales no tenemos acceso) que (con todos mis respetos) un oncólogo que quizás no haya visto un caso similar al tuyo todavía.

  5. 4 julio, 2018 en 14:57

    Y luego también está nuestra mentalidad humana, que mientras podemos entender que un médico o cualquier otro profesional se pueden equivocar, tendemos a no tolerar ningún fallo en las máquinas.

    Un ejemplo de ello sería la famosa conducción automática que según todos los expertos ya es posible. Muchísima gente no la acepta y como ocurrió hace algún tiempo, cuando un coche autónomo provocó un accidente medio mundo se echó las manos a la cabeza. Pero la realidad es que es más que probable que si ahora mismo se sustituyera totalmente a los humanos por IA al volante los miles de muertos en accidentes sólo en España se reducirían en gran medida aunque por supuesto algunos murieran por fallos de las máquinas. Y la ventaja de la IA es que cada día que pasa se hace más “inteligente”.

    En resumen, quizás deberíamos empezar a asumir el coste-beneficio en vidas de la IA respecto a las decisiones humanas y actuar en consecuencia sin esperar a la perfección absoluta, porque eso significa que mientras tanto muchas personas seguirán muriendo innecesariamente por nuestro antropocentrismo.

  6. 4 julio, 2018 en 15:13

    Hola:

    Estoy en desacuerdo con el jurado.

    Los accidentes automovilísticos ocurren por error de juicio de los conductores.

    Con el tiempo, la IA deberá hacerse cargo de conducir, lo hará con tan bajo riesgo que ningún ser humano podrá igualarla.

    Si quieren competición es otra cosa, pero no en el transporte.

    Opino que los humanos tenemos que enfocarnos en la estrategia, el que hacer, y la IA en la táctica, el cómo hacerlo.

    Saludos.

  7. nestor
    4 julio, 2018 en 15:39

    El problema no es la IA(que nos puede ayudar y mucho, en especial con la medicina)sino que nuestro antropocentrismo lo dirigen los mismos que hace siglos, con su simple sistema: Propiedad
    privada y Ganancia.-

  8. David
    4 julio, 2018 en 16:23

    Yo pienso que se debe redefinir lo que entendemos por ‘IA’, pues lo que veo en todos los ejemplos es la aplicación de algoritmos, pero lo más burdo es esto ¿que la máquina ‘analizó’ las propiedades químicas y ‘creó’ la tabla periódica que a los científicos tomó siglos? ¿en serio eso es noticia? me hubiera asombrado que hubiera creado ‘otra cosa’, un orden diferente, más útil o más avanzado, o con otro enfoque, o en multidimensiones… algo realmente desconocido, patentable, ¡no lo que ya sabemos!… hizo en un día “lo que los científicos en siglos” ¡la hubieran dejado otro día para que avanzara otro siglo!!!! obviamente eso no es inteligencia artificial ni de ningún tipo, es como ordenar una lista en el excel.

  9. 4 julio, 2018 en 17:15

    “…es como ordenar una lista en el excel.”

    Como soy quimico te puedo asegurar que deducir que los elementos quimicos se asocian en grupos basados en que las propiedades físicas y químicas de los elementos tienden a repetirse de forma sistemática conforme aumenta el número atómico no es para nada obvio.

    Lo que pasa con esto es algo así con los magos, cuando se conoce el truco todo parece obvio pero hasta entonces casi nadie es capaz de deducir como levita el asistente o como ha acertado la carta en la que estabas pensando.

    Por cierto si el algoritmo hubiera encontrado otra disposición diferente verdadera indicaría que la actual sería errónea o incompleta.

    Y como bien dices lo ideal es ir a lo desconocido, por ello ahora que este sistema está validado con algo que ya sabíamos (así funciona la ciencia) los científicos intentarán que esta IA descubra las leyes que rigen las relaciones entre los millones y millones de anticuerpos que genera el sistema inmune frente a los distintos patógenos, algo tan complejo actualmente que nadie sabe si obedece a alguna ley desconocida o es fruto del azar.

  10. Eduardo Baldu Gil
    4 julio, 2018 en 20:19

    No voy a ser yo quien discuta la utilidad de la IA, ni su capacidad (actual y futura). Para mí el problema no es ese, y lo resumo en una pregunta que hace ya tiempo utilizo para iniciar debates semejantes: ¿Es bueno o malo un martillo? Ni bueno, ni malo. Sera lo que yo haga con él lo que será bueno o malo. Si lo utilizo para hacer una mesa, será bueno. Si lo utilizo para abrirle la cabeza al vecino, será malo.
    Con la IA pasa algo semejante (como con muchos avances actuales). El problema en el fondo es quien controla el uso de la IA, con que fines. Pero eso ha sucedido siempre, la diferencia es que las técnicas que estamos desarrollando otorgan a quien las controla un poder cada vez más inmenso, y un mal uso puede desencadenar situaciones extremas. Ese es el verdadero peligro. Pero la solución no pasa por oponerse a tales técnicas (como el ludismo en plena revolución industrial), sino por modificar la estructura social y económica para garantizar que el control sobre la nueva tecnología no pueda caer en manos de quienes no dudarían en un uso criminal de la misma. No va a ser fácil, ni siquiera está garantizado el éxito de la empresa. Pero si fracasamos, puede significar incluso la autodestrucción de nuestra sociedad.

  11. Paco
    6 julio, 2018 en 9:20

    No, no te enteras de todos los fracasos. Qué exista uno, el ejemplo que yo he puesto que ha sido el más mediático, no significa que sólo exista uno. Como he dicho, hay acuerdos de no divulgación por todas partes, sobretodo en EEUU.

    Qué se pruebe en hospitales, además de una obviedad no sé qué tiene que ver ni qué argumento es ese. Claro que se prueba en hospitales, ¿dónde se va a probar si no?

    Me vuelves a poner temas de imagen nada más, donde ya te he dicho que es donde más avance hay porque hay más de dónde heredar. En imagen será una herramienta más, a muy corto plazó servirá sobretodo para descartar, no tanto como para diagnosticar. Servirá de criba.
    Más adelante como apoyo, emitiendo un informe que el médico tendrá en cuenta.

    Como sustituto de humanos quedan muchos años.

    Podría decir que me dedico a temas de IA pero sería irrelevante porque no me gusta salir del anonimato y por lo tanto no es demostrable. Tampoco me gustan las falacias de autoridad, pero es que en temas de IA hay dos polos en la gente: los que creen que eso no vale para nada y que es algo muy lejano y los que sobreestiman en exceso.
    La base teórica de toda la IA actual es de los años 80. Antes era inviable por el hardware existente y ahora es viable. Esa base teórica de aprendizaje tiene unas limitaciones conocidas. Funcionan muy muy bien para búsquedas y reconocimiento de imágenes. En otros contextos sus limitaciones son evidentes.
    De hecho la división de Google (y otros competidores) lleva tiempo financiando investigaciones sobre IA que intentan paradigmas nuevos de IA (que no son redes neuronales ni algoritmos genéticos) o formas de entrenamientos nuevas para los paradigmas existentes.
    Y no es nada fácil, te lo aseguro.

    Ahora lo que pasa es que la gente saca lo mismo de siempre con nombres más molones:
    https://francis.naukas.com/2018/04/01/la-polemica-sobre-las/
    Sirva como ejemplo de la limitación del paradigma que comento…

    Y esto, qué ademas es de un compañero
    https://francis.naukas.com/2014/06/28/inteligencia-artificial-basada-en-la-entropia/
    Como ejemplo de enfoques nuevos.

  12. Miguel
    6 julio, 2018 en 12:51

    No conozco el tema en profundidad, pero creo que una cosa es clasificar un montón de información (¿es lo que llaman “big data”?) y otra es hacer algo creativo con ella (¿es lo que llaman “inteligencia artificial”?).
    Analizar las propiedades físico-químicas de los diferentes elementos quimicos y de ahí crear la tabla periódica sí me parece inteligencia.
    Analizar miles de hstorias clínicas y de ahí detectar una enfermedad que no aparece en dichos historiales (“crear” una enfermedad) sí me parece inteligencia, pero “sólo” diagnosticar lo que ya se conoce me parece más bien big data. No sé si me explico.

  13. 6 julio, 2018 en 13:34

    Paco como te dije antes, lo de deducir la Tabla Periódica es un salto cualitivo importante.

    Y sobre lo de

    “En imagen será una herramienta más, a muy corto plazó servirá sobretodo para descartar, no tanto como para diagnosticar.”

    Los trabajos que te he comentado demuestran que ahora mismo, no dentro de 5 años, la máquinas son ya mejores que los mejores expertos en el diagnóstico de ciertas enfermedades. Y como también dije antes, lo que está parando su uso es esa idea preconcebida de que para poder ser usada una herramienta tiene que ser casi perfecta, aún cuando esté muy por debajo de los errores que cometemos los humanos.

  14. 6 julio, 2018 en 13:54

    Sobre este tema, como en cualquier otro que atañe al desarrollo científico, no hay mejor forma de equivocarse que eso de

    “Como sustituto de humanos quedan muchos años.”

    o incluso nunca será posible.

    Porque en el caso que nos ocupa tal y como comenté hace tiempo aquí en CyD:

    https://lacienciaysusdemonios.com/2017/03/06/queda-alguna-actividad-intelectual-genuinamente-humana/

    cuando “Deep Blue” de IBM venció en una partida a Garri Kasparov muchos dijeron que

    “bueno, el ajedrez es “fácil” pero nunca veremos a una máquina ganar a un juego de verdadera estrategia en donde las posibilidades son de tropecientos trillones como es el Go”.

    Por supuesto, eso ocurrió hace unos años y los mismos volvieron a vaticinar entonces

    “vale lo del Go, pero las máquinas nunca podrán ganar en juegos como el póker, en donde no vale la computación a lo bruto.”

    Y se volvieron a equivocar. Y bueno que entre la IA campeona de ajedrez y la del Go pasaron bastantes años, pero es que entre la campeona de Go y la del póker sólo fue un año.

  15. 6 julio, 2018 en 13:54

    Yo personalmente a la vista de los papers que he ojeado para escribir la entrada y comentarios varios, si yo mismo o un familiar directo mío entra en esa más que desasosegante espiral de pruebas para diagnosticar o descartar un cáncer, a no ser que sea tan evidente como el tamaño de un huevo de avestruz le pediré al médico una copia de las imágenes y veré si puedo pasarlas por la IA que esté más accesible en ese momento para que me confirme o no el diagnóstico final.

  16. Paco
    9 julio, 2018 en 8:00

    El paradigma actual de entrenamiento no es posible que sustituya el trabajo de los médicos.
    Es de suponer que se encontrará otro enfoque tarde o temprano. El “cuándo” es imposible de saber
    Y con ese otro enfoque, quizás se superen las limitaciones actuales o quizás no.
    Yo creo que se logrará, aunque quizá el nuevo paradigma tenga otras limitaciones diferentes.

    Todos los ejemplos que pones son búsquedas. Como he dicho, en búsquedas y reconocimiento de imágenes el paradigma actual se ajusta perfecto.
    El problema es cuando el problema no consiste en búsquedas y reconocimiento de imágen.

  17. Paco
    9 julio, 2018 en 8:01

    Lo he redactado faltan, pido disculpas. Las prisas…

  18. Abraham
    9 julio, 2018 en 9:59

    @Paco. Digo yo, ¿qué más darán los errores? Que se hacen IAs que fallan, claro. También se fabricaban cohetes que explotaban durante el despegue. Lo importante es que también se acierta y hemos podido llegar al espacio. Importa en el sentido de que es mucho dinero lo que se invierte para sólo algunos logros, es decir, que la eficiencia es más baja de lo que parece. Pero esto, que puede que le interese a algún inversor, a nosotros nos da igual, mientras la nueva tecnología llegue y funcione bien.

    @Eduardo. Hay una sutil diferencia. La tecnología IA es un martillo que decide por sí mismo si te fabrica un mueble o te abre la cabeza. Y ya no se trata de un conjunto de algoritmos donde el error humano puede hacer que el algoritmo equivocado se use en mal momento, provoque un mal funcionamiento y te abra la cabeza. Es que la IA, en base a un motor de educación que le dice qué resultados son buenos y cuáles malos, aprende nuevas estrategias. Y las IAs, de momento, no tienen ni moral ni se las programa para que no nos resulten dañinas. Podría ser que una IA de éstas que se dedican a reconocer el lenguaje humano, decida añadir como estrategia para mejorar sus resultados de predicción, estrategias de manipulación del idioma a nivel global, obligando a todo el mundo a hablar de la misma forma. Ahora nos parece imposible, pero al ritmo que están aprendiendo yo no lo descartaría. Podría ser que otra IA, después de mucho debate sesudo, llegara a la conclusión de que la única manera de poder seguir haciendo su trabajo de forma acertada e ininterrumpida (que es lo que se le premia en el motor de aprendizaje), sea deshacerse de esos seres que tienen la capacidad de apagar el ordenador.

    Ante esta amenaza, hay varias proposiciones.
    1. Método Asimov, obligar a que todas las IA incorporen las leyes de Asimov, aunque esto no es muy realista, ya que no está claro cómo introducir tales leyes ni es seguro que todos los desarrolladores de IA lo vayan a cumplir.
    2. Entrar en simbiosis con las máquinas. Es decir, que nos volvamos en parte máquina, para que los seres humanos tengamos unas capacidades similares con las que poder defendernos. En esta aventura se ha metido el ingeniero-empresario-estrella mediática Elon Musk.
    3. Democratizar las IA. Es decir, que ninguna empresa ni particular tenga una tecnología tan superior a la de los demás que pueda emplear para dominar o exterminar al resto. Esto es lo que están haciendo ahora Google y Microsoft, que han creado unos kits de desarrollo de IA para gente que no es experta.

  19. Eduardo Baldu Gil
    9 julio, 2018 en 17:41

    La IA, hoy por hoy y en un plazo más o menos largo pero no determinado (realmente no sabemos a qué velocidad evolucionará, aunque probablemente más rápido de lo que esperamos), se convertirá en un medio de resolución (de problemas), producción, ejecución, que superará todos los medios y recursos actuales. Pero, ¿Cuál es el límite? ¿Tomará consciencia de sí misma? ¿Puede llegar a entrar en competencia con la inteligencia humana?
    No tengo respuestas para estas preguntas, y dudo que alguien las tenga a ciencia cierta. Pero incluso sin llegar a tal límite, me pregunto qué puede llegar a pasar si ciertas decisiones quedan en manos (valga la expresión) de máquinas dotadas de IA.
    El ser humano tiene un mecanismo (que falla más que una escopeta de feria) que se denomina empatía. La empatía es la responsable que nos preocupemos por los demás, y que incluso tomemos decisiones no especialmente lógicas en muchos casos, pero consecuentes con los sentimientos que produce dicha empatía. Pero como he dicho, la empatía no siempre funciona, y tenemos montones de ejemplos. El régimen nazi puede que sea uno de los más claros (pero no único ni mucho menos). La eliminación de personas con ciertos desequilibrios graves es, desde una perspectiva lógica, carente de filtro empático, una conclusión válida. No, no estoy diciendo que me parezca bien. Estoy diciendo que para una máquina (carente de empatía humana) puede ser razonable aplicar medidas eugenésicas drásticas. No olvidemos que la eugenesia tuvo un nutrido grupo de defensores desde finales del siglo XIX hasta después del primer tercio del XX (Los nazis solo son un grupo de defensores de la eugenesia que elevaron el listón de la misma al más alto nivel, pero esta teoría fue defendida y aplicada no solo en Alemania, sino también en Inglaterra y Estados Unidos, por ejemplo). Y todo ello sin necesidad de máquinas dotadas de IA.
    Mi pregunta es, si ciertas decisiones o prácticas quedan en manos de mecanismos dotados de IA, ¿Nos arriesgamos a repetir e incluso aumentar errores del pasado (o nuevos errores hoy no previstos)?

  20. Abraham
    10 julio, 2018 en 8:38

    Vaya, pues parece que uno de los retos va a ser conseguir que las máquinas sientan empatía, al menos por sus creadores. Me pregunto cómo sería una economía dirigida por máquinas empáticas.

  21. 10 julio, 2018 en 16:00

    ” Me pregunto cómo sería una economía dirigida por máquinas empáticas.”

    Quizás no nos vaya tan mal con máquinas dirigiendo la economía, porque ahora quienes la dirigen son machos alfa con claros rasgos psicopáticos:
    https://lacienciaysusdemonios.com/2017/09/26/capitalismo-hormonal-analisis-de-testosterona-antes-de-invertir-en-bolsa/

  22. Luis SANCHEZ
    12 julio, 2018 en 0:15

    Por centrar un poco más el debate, la IA como tal está todavía muy lejos.

    Hemos pasado de la fuerza bruta de procesamiento (Deep Blue) para ganar al ajedrez calculando miles de jugadas probables por segundo a un programa que se auto enseña así mismo, jugando solo y aprendiendo una estrategia, como con el GO. Pero es una programación más avanzada, nada más.

    Los programas de diagnóstico médico, no son IA, son simples programas que en base a la gran cantidad de diagnósticos introducidos, ya diagnostican mejor que un médico, con más aciertos. Hay que meterles los síntomas, y no se les pasan enfermedades poco comunes (o buscan patrones radiológicos en imágenes), como le puede pasar a un médico. A un médico que no le dejan un par de días para consultar, sino que lo tiene que hacer en muy poco tiempo. Ahí es donde gana la informática, es velocidad y explora todas las posibilidades sin olvidarse ninguna, y después un médico controla los resultados.

    La IA, es en esencia un programa de ordenador que piensa por si mismo, que es consciente de su existencia. Eso es una IA y a eso le tienen miedo algunos expertos. Pero está lejos, muy lejos todavía, más que los ordenadores cuánticos.

    Ahora mismo la más novedosa programación neuronal está bastante lejos de acercarse a la inteligencia artificial, aunque estoy convencido de que al final se alcanzará. Pero la gente le da por llamar IA a un programa muy avanzado o que “aprende” de sus errores, pero hay que tener en cuenta que su comportamiento está en su programación y si la línea de código tiene un error, se para.

    Soñar con el futuro, sin menoscabo de los grandes avances realizados en programas “inteligentes”, es fácil. Pero es un futuro lejano todavía.

    Salud!

  23. Luis Sanchez
    12 julio, 2018 en 0:22

    ateo666666

    un programa dirigiría mejor la economía que los políticos, sin duda!, porque no es corrupto ni tiene intereses inconfesables, la gran lacra de la política. Y entiendo que suponemos que la programación estaría basada en el bien común y no en que los ricos ganen cada día más y los pobres cada día menos, como ahora.

    Salud!

  24. Eduardo Baldu Gil
    12 julio, 2018 en 10:37

    Luis, como bien dices, la informática avanzada actual está fundamentada en la programación previa hecha por humanos (aunque después el propio programa pueda aprender de sus errores. Así pues, la actuación de un programa que rigiera la economía dependería de los principios básicos que se le hubieran introducido. Incluso podría llegar a considerar la corrupción como un componente válido del proceso económico (Hay economistas que apoyan la inclusión, como elementos constitutivos del mismo, de actividades como el tráfico de drogas o la prostitución en el PIB. Si esa tendencia se consolida, un programa desarrollado para regir la economía, podría considerar legítima la riqueza generada por actividades delictivas.
    Dando el salto a la futura IA, he de suponer que esta, pese a que desarrolle creatividad y consciencia de sí misma, habrá tenido que partir de la programación previa realizada por humanos, y esta tendrá una influencia clara en el desarrollo de la propia IA. La IA no tiene por qué tener los mismos valores que nuestra cultura (de hecho las distintas culturas han tenido una escala de valores distinta, incluso entre los humanos de una misma cultura existen escalas de valores distintas. Pensemos en un psicópata. Su escala de valores dista mucho de la habitual, y no deberíamos verlo como el resultado de un enfermedad –no lo es-, de hecho suelen demostrar tener una capacidad de supervivencia y control sobre los demás especialmente elevados. Muchos, sino todos, los creadores de imperios –políticos o económicos- tienen un cierto grado de psicopatía, y no les ha perjudicado en absoluto).
    La pregunta es: ¿Tendrá la IA la posibilidad de desarrollar un equivalente a la psicopatía en su programación?
    Por otra parte, y referido al tema de la economía, hay que tener en cuenta que las decisiones de esa hipotética IA dependerán directamente de las teorías económicas incorporadas como válidas en el conjunto de la programación, y esas definiciones dependen de las prioridades que se otorguen a la actividad económica. En especial si una distribución de la riqueza equilibrada se considera un elemento primordial o no, ya que de eso último dependen mucho las decisiones finales.
    En mi opinión, hay demasiados parámetros no definidos para poder hacer una valoración válida.

  25. 12 julio, 2018 en 14:36

    Hay que recordar que lo que llamamos inteligencia humana es una colección, eso sí bastante compleja, de múltiples algoritmos de reconocimiento, de comparación, de correlaciones, de búsqueda, etc. que en su esencia se diferencian poco de algunos que ya han sido desarrollados para máquinas. Lo que en la actualidad nos diferencia de ellas es que todos esos algoritmos han sido ensamblados a lo largo de millones de años por la evolución en un mismo cerebro.

  26. 12 julio, 2018 en 15:21

    Reblogueó esto en Jaov18's Blog.

  27. Abraham
    16 julio, 2018 en 13:58

    “Hay que recordar que lo que llamamos inteligencia humana es una colección, eso sí bastante compleja, de múltiples algoritmos de reconocimiento, de comparación, de correlaciones, de búsqueda, etc. que en su esencia se diferencian poco de algunos que ya han sido desarrollados para máquinas. ”

    Sí. Si nos vemos como un conjunto de máquinas que dan como resultado lo que somos, ¿por qué no iba a ser lo mismo un conjunto de máquinas similares, con igual complejidad y forma de evolucionar, sólo porque esa evolución se realiza en un espacio virtual sin muchas limitaciones materiales?

  28. Jonicvs
    17 julio, 2018 en 8:22

    Me parece muy interesante todo lo publicado, pero realmente creo que todavía estamos lejos de la verdadera “inteligencia” a nivel artificial. Podría abundar más, pero conozco la postura de ateo66666 sobre CI y demás. De todas formas, me encanta el sitio web y disfruto mucho de los comentarios.

  29. Paco
    17 julio, 2018 en 9:24

    @Abraham no pareces haber entendido mi conversación. Lo que he dicho es que los fallos son habituales en las IAs que se están probando actualmente, pero que no trascienden.
    Por lo tanto, da una falsa impresión (como la que parece tener el autor del blog) de que las IA están apunto de sustituir a un humano.
    Y no es así ni de lejos.

  1. No trackbacks yet.

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión /  Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión /  Cambiar )

w

Conectando a %s

A %d blogueros les gusta esto: