Y Llego con sus Riesgos para quedarse


Registrate en Encontrarse y empezá a conocer gente ya

Publicado por
@DANTEX

15/04/2023#N82095

0 Actividad semanal
477 Visitas totales


Registrate en Encontrarse y empezá a conocer gente ya
Según un informe de la OCDE, el 14 % de los trabajos en el mundo podrían estar afectados por la irrupción de la Inteligencia Artificial. El porcentaje es algo mayor en España, hasta un 22%, aunque en líneas generales es menor de lo que se esperaba. No todos los empleos pueden ser sustituidos, porque no siempre va a ser posible o eficiente.

Con todo, serán miles los empleos que sean sustituidos o modificados por robots y eso implica, que, como explicó Juan Ignacio Rouyet en la última edición de Las mañanas del Mañana, debamos ser conscientes de los riesgos que ya entrañan estas tecnologías y tener preparadas las respuestas para minimizarlos y gestionarlos con la máxima eficacia.

El director de Delivery de Quint fue el último invitado en los coloquios-desayuno organizados por DigitalES –ahora por streaming- y cifró en siete los riesgos que conviene identificar y combatir derivados de la adopción masiva de la Inteligencia Artificial. Hacerlo de manera inteligente y ética determinará, a su juicio, el éxito en la implantación de estas tecnologías.

Impacto en el comportamiento
El primer ejemplo lo vemos ya a diario en muchas casas. Los niños tratan sin educación a los asistentes virtuales, ya que Alexa o Siri obedecen sin necesidad de pedirles las cosas por favor. El riesgo estriba en que los niños puedan trasladar estos comportamientos a su relación con las personas, algo que, como advierte este artículo del Washington Post, ya está empezando a suceder. Niños más curiosos pero menos educados.

Riesgos Inteligencia Artificial

Estupidez artificial
Cada vez es más difícil engañar a las máquinas. Pero es posible hacerlo. “Nos imaginamos que hay un pequeño cerebro humano dentro del ordenador, pero no, solo es programación y matemáticas”, explica Meredith Broussard, autora del libro Estupidez Artificial. No son infalibles: hay técnicas de maquillaje y vestuario para engañar a los sistemas de reconocimiento facial.

Según explicó Rouyet, se debe trabajar aún para lograr una Inteligencia Artificial completamente eficiente.

Sesgo y falta de neutralidad de las máquinas
El sistema de inteligencia artificial que usan los jueces en EE UU como asesor tiene un sesgo y tiende a desaconsejar la libertad a los ciudadanos negros más a menudo que a los blancos. El algoritmo analiza 173 variables —ninguna de ellas es la raza— y da una probabilidad de reincidencia de 0 al 10. El problema no es tanto la máquina, sino el riesgo de que el juez delegue en ella.

Seguridad de la Inteligencia Artificial
El video en el Barack Obama insultaba a Donald Trump se volvió viral hace un tiempo en Estados Unidos. Y sin embargo, era totalmente falso. La Inteligencia Artificial puede convertirse en un gran aliado para fabricar fake news si no la empleamos con la ética apropiada.

En este caso concreto, el vídeo es una creación de FakeApp, con la ayuda de Adobe After Effects. Este software usa aprendizaje automático para escanear las caras de las personas en un vídeo, y suplantarlas.

https://www.youtube.com/watch?time_continue=13&v=cQ54GDm1eL0&feature=emb_logo

Consecuencias no intencionadas
En julio de 2017 saltaron todas las alarmas. Dos chatbots de Facebook habían desarrollado un lenguaje propio que no entendían sus programadores.

Fue sin embargo un simple error de programación. Ramón López de Mántaras, experto en inteligencia artificial del CSIC, sostiene que ninguna máquina tiene intenciones ni las tendrán nunca. “Pueden enseñarse a sí mismas a jugar al Go y derrotar a un campeón, pero no saben que están jugando. Si pusiésemos a esa misma máquina a distinguir fotos de perros y gatos olvidaría todo lo anterior. Solo pueden hacer una cosa a la vez”.

Impacto en el empleo
Juan Ignacio Rouyet cifró el impacto en un 14% a nivel mundial y subrayó que la implantación de la Inteligencia Artificial no siempre es posible ni deseable, ya sea por cuestiones de eficiencia, ética o legalidad.

Empleo Inteligencia Artificial

Derechos de los robots
Por último, el también presidente del Think Tank “We the Humans” aseveró que los robots no deben tener derechos, porque tampoco tienen responsabilidades. “A día de hoy un robot no es libre, por tanto no debe responder ante nadie. Son las personas que están detrás de un sistema inteligente quienes deberán responder llegado el caso”, dijo.

Charla completa disponible en este vídeo:






 

Comentarios

@SILVERMOON29

15/04/2023



OMG!! Cómo no dejarse cautivar por las bondades de la IA??. Ahora mismo, estamos subyugados por el Chat GPT.  Los genios programadores nos han venido solucionando la vida en operaciones financieras, viajes, deliveries, entre otras cosas.  Y si.... En el camino hemos perdido miles de puestos laborales en pos de obtener servicios más eficientes.  Y se presenta este dilema que aún no podemos resolver: Avance tecnológico vs Riesgos existenciales (privacidad, salud, trabajo..).  En fin, todo tiene un costo.  Aún tendremos que esperar que nuestro sistema jurídico comience a regular cuestiones éticas y legales (ilusa de mí).  Mientras tanto, disfrutemos de lo que hay, porque en cualquier momento, al robot de la foto se le puede ocurrir apretar un botoncito.  Cariños y buen finde!!.  
@URU

15/04/2023

La llegada de la IA genera muchas dudas e incertidumbres, cómo la mayoría de los cambios tecnológicos. Además de lo expuesto en el texto, much@s analistas refieren a la dilución de la propiedad intelectual que podría conllevar si no hay regulaciones en su uso. Puede operar como un desincentivo a la investigación y generar usos acriticos en ámbitos de formación académica. Estás "sombras" y muchas otras nos han acompañado a lo largo de la historia. Recuerdo los debates que se dieron con la llegada de internet (que declaración de longevidad la mía). Concuerdo en que llegó para quedarse a pesar de los gestos y operaciones de oposición. Habrá que ser creativos, generar espacios de discusión y acumular fuerzas para un uso consciente. Pongo un ejemplo: La pérdida de puestos de trabajo que conlleva la IA es, desde los albores de la humanidad, un elemento que acompaña los cambios tecnológicos y el aumento de la productividad. Generó reacciones diversas cómo los "saboteos luditas"; pero también luchas obreras asmociadas a la reducción de la jornada de trabajo, para disputar los beneficios del aumento de la productividad. En tal sentido, el siglo XIX fué el siglo de las 16 horas de trabajo, sin posibilidad de acceder a un tiempo de ocio creativo. El siglo XX, luego de incansables enfrentamientos, se conquista formalmente la jornada de 8 horas diarias (todavía con resultados dispares). Por qué no pensar en acompañar la llegada de la IA y muchos otros cambios tecnológicos ocurridos y en proceso, con la discusión para este siglo XXI, de una jornada de 4 horas. Un gran filósofo André Gorz lo expresaba en términos de disputa por el incremento del "trabajo autónomo" u ocio creativo. Saludos, URU_ el utópico.  
@SERGIO

15/04/2023



Excelente tema, gracias por compartir sus ideas. En mi opinión uno de los grandes riesgos es el sesgo y que se de por válidas las respuestas, la vieja frase "pero lo vi en internet" es tan escuchada que parece real y sin duda tiene atras muchisimos riesgos. En este caso es peor, porque las respuestas son más a medida de la pregunta que uno le hace. Ni hablar de la generacion de videos, audios, etc, que ahora es muchisimo mas fácil.

Hace un tiempo yo habia publicado el dilema del tranvia, actualizado, a un auto con manejo autono que tenia que tomar una decision si proteger a quienes iban dentro del auto o proteger a transeuntes en una situación de uno o el otro, como por ejemplo un camino de corniza. Entonces uno podria comprar una marca de autos o la otra en base a si me protegeria a mi o si estaria programada para decidir la menor cantidad de muertes posibles. Habria valores de la IA , y uno tendria que elegir aquella IA que se alineen con los valores propios. Parace imposible tan siquiera conocer cuales serian . 


 

y para graficarlo mejor le pregunte a CHATGPT . 

 
Sergio : ¿Cual es el riesgo de la IA ?
 
ChatGPT : La inteligencia artificial (IA) tiene el potencial de ofrecer una gran cantidad de beneficios y avances en diferentes campos, pero también hay riesgos asociados con su desarrollo y uso. Algunos de los riesgos más importantes incluyen:


  1. Riesgo de seguridad: Las IA pueden ser vulnerables a ataques cibernéticos y otros tipos de intrusión. Si una IA maliciosa cae en manos equivocadas, puede causar daños significativos.


  2. Riesgo de sesgo: Las IA pueden ser entrenadas con conjuntos de datos sesgados, lo que puede llevar a decisiones discriminatorias. Esto puede tener consecuencias negativas para grupos marginados y vulnerables.


  3. Riesgo de desplazamiento de trabajos: La IA puede automatizar muchos trabajos, lo que puede llevar a la eliminación de empleos y la desigualdad económica.


  4. Riesgo de falta de transparencia: Las IA pueden tomar decisiones complejas que son difíciles de entender y explicar. Esto puede llevar a una falta de transparencia y responsabilidad en la toma de decisiones.


  5. Riesgo de superinteligencia: Si la IA se vuelve lo suficientemente avanzada, puede superar la capacidad humana de comprenderla o controlarla. Esto puede tener consecuencias impredecibles y potencialmente catastróficas.


Es importante abordar estos riesgos de manera proactiva y responsable para maximizar los beneficios de la IA y minimizar sus riesgos potenciales.

 
 
 
Sergio : ¿Y que otro riesgo puede haber ?
 
ChatGPT: Además de los riesgos que mencioné anteriormente, hay otros riesgos asociados con la inteligencia artificial. Aquí hay algunos ejemplos:


  1. Riesgo de privacidad: La IA puede recopilar y analizar grandes cantidades de datos sobre las personas, lo que puede amenazar la privacidad y la seguridad de los datos personales.


  2. Riesgo de dependencia: Si la sociedad se vuelve demasiado dependiente de la IA, puede haber consecuencias negativas en caso de fallas o interrupciones en el sistema.


  3. Riesgo de falta de ética: La IA puede ser utilizada con fines malintencionados, como el espionaje, la vigilancia masiva o la manipulación de la opinión pública.


  4. Riesgo de impacto ambiental: La IA consume una gran cantidad de energía y recursos, lo que puede tener un impacto negativo en el medio ambiente.


  5. Riesgo de polarización social: La IA puede perpetuar la polarización social y política al fomentar la creación de burbujas informativas y la difusión de información falsa.


Es importante tener en cuenta que estos riesgos no son exclusivos de la IA y pueden ser mitigados mediante la implementación de medidas de seguridad y ética adecuadas. La IA tiene el potencial de ofrecer muchos beneficios, pero también requiere una consideración cuidadosa y responsable en su desarrollo y uso.


 

Sergio : ¿entonces no seria conveniente prohibir la IA ?
ChatGPT: No sería conveniente prohibir la inteligencia artificial (IA), ya que tiene el potencial de ofrecer una gran cantidad de beneficios en diferentes campos, como la medicina, la energía, la manufactura, la educación, entre otros. La IA puede mejorar la eficiencia, reducir costos y ofrecer soluciones innovadoras a problemas complejos.


En lugar de prohibir la IA, es importante implementar medidas de seguridad y ética adecuadas para mitigar sus posibles riesgos y asegurarse de que se use de manera responsable y beneficiosa para la sociedad en general. Esto podría incluir la regulación y la supervisión del uso de la IA, la protección de la privacidad y la seguridad de los datos, la mitigación del sesgo algorítmico, la protección de los derechos humanos y la promoción de la transparencia y la responsabilidad en la toma de decisiones.

Además, es importante reconocer que la IA no es una solución mágica para todos los problemas, y puede tener limitaciones y desafíos en su implementación. La adopción de la IA debe ser cuidadosamente considerada y adaptada a las necesidades y condiciones específicas de cada sector y comunidad.

 

 

Besos a todos ! 
 
@DANTEX

15/04/2023

Hola a la exposición de Sergio ya q es un profesional me preocupa lo Belico ,manejo de guerras quimicas sin costos o minimo de vidas humanas ya algo hay (Silicon Valey)12 autos con 500000 kms sin chofer,aviones piloteados de tierra etc etc Saludos Buen Finde  
@ETER33

16/04/2023



Que tema este, La cuestion  mas peligrsa a mi entender, es perder la capacidad de pensamiento , decicion y accion propia que tiene el ser humano para resolver sus problemas cotidianos , ejercicio de su cerebro, su experiencia y sabiduria  acumulada, para delegarlo a una maquina, o robot sofisticado que luego lo acumulara como datos propios , o sea el programa puede autodesarrollarse. ???? y entonces como una pelicula de ciencia ficcion, puede el robot prescindir del humano ?  Puede el hunano volverse mas antisocial o menos empatico , o como dijo Dantex, menos respetuoso.....y no esforzase por socializar ....? son preguntas que me hago , al margen que creo que ayudarina a resolver temes que hoy llevan mucho tiempo y son obsoletos como los tramites o por ej. salvatajes en siniestros. , para no perder vidas ..Buien domingo .

.  
@MARIALE2

16/04/2023

Excelente nota y sus comentarios. Me apasioné leyéndolos. Que tengan buen día  
@JOSESE386

16/04/2023



¡Muy interesante el articulo y las contribuciones, gracias! Un tema que creo que se tocó tangencialmente y que hace al riesgo mas grande de la Inteligencia Artificial General (a la que, según entendemos, todavía no se ha llegado, pero podemos estar a dos días/dos meses/dos décadas de lograrla) es que no tenemos la mínima idea de como va a responder un “software” que tenga consciencia, que “sienta” (un eufemismo) y para el cual los seres humanos podrían ser lo que para nosotros son las hormigas.

Ya ha habido situaciones (menores) donde instrucciones claras, aparentemente, dieron lugar a consecuencias no deseadas: una inteligencia artificial, cuando instruida para lograr el mejor puntaje en un juego electrónico, en lugar de jugar, hackeo el software y cambio el puntaje….imagínense un software con un enorme orden de magnitud mas poderoso…

No soy ludita (el ludo nunca fue lo mío, jaja), ni anti-tecnología, pero estamos con nuestras propias manos construyendo algo, que, los mismos expertos que se dedican a adelantar esa tecnología dicen que tiene un 10% de probabilidad de causar la extinción de la humanidad o permanente relegarla

“What probability do you put on human inability to control future advanced AI systems causing human extinction or similarly permanent and severe disempowerment of the human species?

Answers:

Median 10%.”

https://aiimpacts.org/2022-expert-survey-on-progress-in-ai/#Chance_that_the_intelligence_explosion_argument_is_about_right

Esto no es un temor estilo “Terminator” o una teoría conspirativa. Estamos creando, sin control, un ente autónomo, con capacidad de “auto mejora” infinitiva y cada vez mas rápida, sin forma de asegurarnos que sus intereses básicos estén alineados con los nuestros.

Al lado de eso, los otros problemas/oportunidades de esta tecnología son “menores”

Un grupo de científic@s/ejecutiv@s firmaron una petición de seis meses de pausa en el desarrollo de Inteligencia Artificial (entre ellos, Elon Musk, el cofundador de Apple, Steve Wozniak y  el director de OpenAI –propietaria de ChatGPT–, Sam Altman, entre otras personalidades del sector.. No es suficiente, pero sería un buen comienzo

https://www.pagina12.com.ar/536407-grandes-riesgos-que-dice-la-carta-firmada-por-elon-musk-y-ot

No creo que ocurra, el mundo no se puede unir para otras cosas que se mueven mas lentamente (recalentamiento global, por ejemplo), y no se va a unir para esto.

Estamos jugando con fuego, somos unos niños, no tenemos un extinguidor de incendios y al lado hay un polvorín. Ojalá me equivoque.  
@SILVERMOON29

17/04/2023



Brillante JOSÉ!!. En especial tu conclusión.  Las AGIs y su potencial de causar la extinción.... un tema que en estos últimos días les quita el sueño a muchos. ¿Poner en pausa la vertiginosa máquina de la Inteligencia Artificial?. No creo que Elon Musk pueda frenar esta carrera... Exacto. "un ente autónomo que nace programado para el bien de la humanidad, pero como tiene libre albedrío ....".  Yo me uno a las filas de mi querida Mafalda pero con un idealismo devenido en resignación, y con la poca fuerza del lunes digo:  "Paren el mundo que me quiero bajaaaarr".  Cariños y buena semana.  
@SERGIO

17/04/2023



Hoy hablando con un amigo , me pasó un articulo de la inteligencia artificial ya rozando el razonamiento de las personas al hacerles pruebas con cuestionamientos complejos . 

Entonces yo le dije que habrá que ponerle reglas a estilo del libro Yo Robot, en donde los robots tienen 3 reglas que definen su comportamiento : 

Primera Ley: Un robot no hará daño a un ser humano, ni por inacción permitirá que un ser humano sufra daño.

Segunda Ley : Un robot debe cumplir las órdenes dadas por los seres humanos, a excepción de aquellas que entren en conflicto con la primera ley.

Tercera Ley : Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o con la segunda ley.​

 

Me comenta, mi amigo , que el problema con la IA , es que es código abierto, eso es que hay montones de motores de IA ( más alla de los conocidos) corriendo por todo el mundo, ya que uno se puede descargar el código , modificarlo  e instalarlo ( obviamente hace falta saber , y capacidad de procesamiento ) 

Con lo cual quizas habrá que desarrollar Policias IA que controlen a las otras IA ..... Y salió el titulo de un Libro/pelicula deciencias ficción , o no tan ficción . 

uf , me hagota pensarlo nomas. 

 

Besos a todos 

Gracias por los aportes y comentarios !  Se puso interesante 

 

 

 

   
@LUISANTONIOR

19/04/2023



La ciencia , la tecnología avanza. A todo lo largo y lo ancho de la historia , el tema reiterado es , qué uso se le dá a esos avances 

La Humanidad repetidas veces , los ha utilizado para fines non sanctos .

La pregunta es : ¿ qué es dable esperar de una  "inteligencia "  producida o creada por seres inteligentes , que usan esa facultad para poner al borde de la extinción a su propia especie ?  
@DONTUM

22/05/2023



Aprendiz de brujo

Como Mickey, tratando de “tomar el camino corto”; nos vamos acostumbrando a “lo fácil”, pero los tiempos actuales hacen necesario empalmarlo con “lo rápido”. Fácil y rápido no suele ser una buena combinación…

La inteligencia artificial sólo reúne el 50% de la frase: artificial; el resto lo pone el programador. ¿Cuál es el problema?

Cualquiera que ha usado un programa de facturación o gestor de base de datos o ha ido a hacer un trámite y le han respondido: se cayó el sistema (como si se debiera a la mano de Dios); puede entender las implicancias de un trabajo, de programación, “a la apurada” o sin mucho cuidado o sin suficiente capacidad. ¿Tenemos la idoneidad de generar IAs?

No conocía el dato que puso @JOSESE386 (gracias por el aporte), de que las IAs tienen el 10% de probabilidades de extinguir a la humanidad (al menos es un porcentaje menor al que tenemos nosotros mismos de hacerlo, por cómo vamos).

Ya la venerable Ciencia Ficción, nos ha alertado de la mayoría de los escenarios posibles. Incluso viejos escritores (apuntando a robots en vez de software, pero es similar la idea), han ensayado soluciones, como las 3 leyes de Asimov que mencionaba @SERGIO. Sin embargo, el mismo autor cuenta como uno de sus robots: R. Giskard Reventlov, llega a la conclusión de la necesidad de la “Ley Cero” (un: hecha la ley hecha la trampa) ¿sería un robot argentino?

Hubo gente que sostuvo que la primera bomba atómica destruiría al mundo, al menos a todas las especies, sin embargo, la probaron igual (¿habrán cruzado los dedos, esperando que sus cálculos fueran acertados?)

Desde nuestro pequeño reducto del universo, sólo podemos hacer nuestra parte: Pensar y actuar en consecuencia; no tercerizarnos. Es más cansado, pero más al estilo de cada uno.

Sin embargo, hay algo que me preocupa más que la IA; es la EH, que de verdad puede llevarnos a la extinción: la Estupidez Humana.

Buen aporte, @DANTEX

Atte. Dontum  
@ETER33

23/05/2023



 dice @DONTUM ,"  La inteligencia artificial sólo reúne el 50% de la frase: artificial; el resto lo pone el programador. ¿Cuál es el problema?"...sI....el tema es el alma del programador, y del proposito, porque en este mundo dual , todo puede ser usado para el bien o para el mal. He escuchado videos y leido post que hablan que en el Univeso hay ,mega inetilencias creadas, y que son IA, pero ya no se puede definir como  artifiaciales, o que tipo de Mente autoprogramable son. No se puede detener el progreso , la tecnologia, y la ciencia. Pero tenemos que expandir nuestra conscierncia , digo nuetras capacidades tan manipuladas tantas veces. 

Buenas noches a todos.