Secciones

  • Portada
  • Opinión
  • Actualidad
  • Nacional
  • Economía y empresas
  • Tendencias
  • Deportes
  • Clasificados
  • Página del lector
  • Espectáculos
Fue condenado a prisión en 2019 por no contar con autorizaciones

El científico chino que creó los primeros bebés genéticamente modificados retoma sus investigaciones

He Jiankui cumplió tres años de cárcel por realizar su proyecto ilegalmente.
E-mail Compartir

Por Efe

El científico chino He Jiankui, que saltó a la fama a finales de 2018 tras afirmar que había conseguido crear los primeros bebés manipulados genéticamente, retomó, tras su paso por prisión, su investigación sobre la edición del genoma de embriones humanos para el tratamiento de enfermedades genéticas.

He, que fue condenado a tres años de cárcel en 2019 por las autoridades de su país, que consideraron que llevó a cabo el proyecto de forma ilegal con fines reproductivos, afirmó al diario japonés Mainichi que su trabajo actual se ajusta a las normas internacionales y que la sociedad acabará aceptando eventualmente esta práctica.

El científico aseguró al diario que su objetivo es tratar enfermedades genéticas raras como la distrofia muscular de Duchenne o el Alzheimer genéticamente determinado mediante la edición del genoma en embriones humanos, y que para sus estudios usará embriones desechados y cumplirá las normas locales e internacionales.

He habría establecido tres laboratorios en China tras su excarcelación en 2022, entre ellos en Pekín y Wuhan.

En noviembre de 2018, el científico chino sorprendió a la comunidad internacional al afirmar que había conseguido crear a las primeras gemelas manipuladas genéticamente para resistir al VIH, lo que acarreó numerosas críticas, especialmente por cuestiones éticas.

Las gemelas fueron parte de tres bebés que nacieron como resultado de un proyecto de edición genética durante la fertilización in vitro de ocho parejas en las que sólo los maridos estaban infectados con VIH, para prevenir la transmisión del virus.

El científico se mostró entonces "orgulloso" de su trabajo y recalcó que su estudio no tenía el objetivo de eliminar enfermedades genéticas sino de "dar a las niñas la habilidad natural" de resistir a una posible futura infección del VIH.

Las autoridades chinas determinaron tras una investigación que He realizó el proyecto de forma ilegal para conseguir fama y ganancias económicas.

¿y los niños?

Sobre los niños, He dijo que "están perfectamente sanos y no tienen problemas de crecimiento". También informó de que las gemelas, que ahora rondan los 5 años, asisten al jardín, y que otro bebé nacido en 2019 fue también niña.

He dijo sentirse orgulloso de sus logros y aseguró que los análisis de las secuencias genéticas completas de las pequeñas muestran que "no hubo modificaciones de genes más allá del objetivo médico, lo que proporciona evidencia de que la edición del genoma era segura".

Sobre las críticas que recibió, He lamentó que su investigación fuera tan "apresurada", pero no explicó por qué decidió llevarla a cabo y violar las normas internacionales.

El escándalo llevó a las autoridades chinas a revisar sus normativas al respecto de la modificación genética en humanos, que ahora exigen una aprobación de nivel nacional para investigaciones clínicas en ese campo o en otras "tecnologías biomédicas de alto riesgo".

El controvertido investigador aseguró en 2023 que tenía la intención de llevar a cabo estudios de edición genética en Hong Kong utilizando inteligencia artificial, planes que se vieron frustrados después de que las autoridades hongkonesas anularan su visa de trabajo.

Herramienta se llama Voice Engine

OpenAI asegura que puede clonar voces, pero que no lanzará su tecnología al público por sus riesgos

E-mail Compartir

La empresa de inteligencia artificial (IA) OpenAI dijo este lunes que mediante su modelo Voice Engine puede clonar voces humanas reproduciendo un sonido natural "emotivo y realista" usando una muestra de 15 segundos, pero que aún no lanzará la tecnología al público general, ya que sería demasiado arriesgado.

"Reconocemos que generar un discurso que se asemeje a las voces de las personas conlleva serios riesgos, que son especialmente importantes en un año electoral", apuntaron los creadores de ChatGPT.

Voice Engine es un nuevo modelo de IA que puede convertir texto a voz para crear voces sintéticas, que, según la compañía, pueden permitir que los creadores de contenidos puedan traducir su trabajo en otras lenguas sin perder sus acentos nativos y ayudar a las personas con problemas de comunicación verbal a usar su voz para, por ejemplo, llamar por teléfono.

En uno de los ejemplos que da la empresa se puede escuchar cómo la voz de una anglosajona se tradujo al español, mandarín, alemán, francés y japonés conservando el acento nativo de la persona.

Por el momento, las empresas que pueden acceder a esta tecnología son la de educación Age of Learning, la plataforma de narración visual HeyGen, el fabricante de software de salud Dimagi, el creador de aplicaciones de comunicación de inteligencia artificial Livox y el sistema de salud Lifespan.

"Estamos adoptando un enfoque cauteloso e informado para una publicación más amplia debido al potencial de uso indebido de la voz sintética", indicó la empresa y apuntó que las firmas con las que trabajan aceptaron sus políticas de uso.

Entre esas reglas está que no se use la voz de alguien sin su consentimiento o que hay que indicar a los usuarios que son voces sintéticas. "Finalmente, hemos implementado un conjunto de medidas de seguridad, que incluyen marcas de agua para rastrear el origen de cualquier audio generado por Voice Engine, así como un monitoreo proactivo de cómo se utiliza", añadió OpenAI.

Este año electoral en Estados Unidos ya se han dado casos de llamadas automáticas con voces clonadas de políticos como el presidente Joe Biden.

Otro gran problema de las voces sintéticas generadas por IA es que los estafadores las podrían usar para acceder a cuentas bancarias que utilizan autenticación de voz.

Un estudio prevé que todos los japoneses tendrán el mismo apellido dentro de 500 años

E-mail Compartir

Un estudio dirigido por la Universidad de Tohoku, Japón, prevé que hacia el año 2.500 todos los ciudadanos de ese país se apellidarán 'Sato', actualmente el nombre de familia más común en la nación asiática, debido a la actual tendencia de declive demográfico y a la normativa civil vigente.

'Sato' ocupa el primer puesto entre los apellidos más frecuentes entre los japoneses y el 2023 lo llevaba el 1,5% de la población nipona, según las estimaciones de un estudio liderado por el profesor Hiroshi Yoshida, del centro de Investigación Social y Económica del Envejecimiento de la citada universidad.

Este académico calcula que el número de personas apellidadas Sato se ha multiplicado por 1,0083 en los últimos años, y realizó una prospección de cómo evolucionaría esa cifra teniendo en cuenta las tendencias demográficas de envejecimiento acelerado y descenso del número de nacimientos, que están resultando en una continua pérdida neta de población.

Su estudio también tiene en cuenta la normativa nipona que establece que al contraer un matrimonio, marido y mujer deben adoptar un mismo nombre de familia, ya sea el de él o el de ella. En Japón solo se emplea un apellido y un nombre de pila.

A partir de estos factores, Yoshida calcula que en el año 2446 la mitad de la población japonesa se apellidará 'Sato' y que para 2531 la totalidad de los nipones tendrán el mismo apellido.

El estudio se hizo público en medio del continuo debate en Japón sobre la citada normativa civil sobre los apellidos. Numerosas voces, entre ellas algunas del partido gobernante, reclaman que marido y mujer puedan conservar sus nombres de familia tras casarse, o incluso llevar dos apellidos, como es el caso de países como Chile.

Los autores del informe buscaban "ilustrar con números el problema que representa la separación selectiva de apellidos en los matrimonios", según dijo Yoshida al presentar su informe.

"Si todo el mundo se apellida 'Sato san' ('Don o Doña Sato'), no quedará más remedio que emplear únicamente el nombre de pila para identificarse. Eso no sería un escenario ideal", dijo el profesor, según los medios locales.

Opinión

Inteligencia artificial: navegando entre la innovación y la ética en la era digital

E-mail Compartir

En un contexto donde la inteligencia artificial (IA) permea cada aspecto de nuestras vidas, desde la medicina hasta el entretenimiento, su regulación se convierte en una urgencia no solo técnica, sino ética y social. Es por esto que el Centro de Políticas Públicas e Inteligencia Artificial de la Facultad de Derecho de Universidad de Las Américas (UDLA), ha presentado al Senado una propuesta de Ley Marco de IA, con objeto de ser un aporte para enmarcar esta revolución tecnológica dentro en un ecosistema que respete la dignidad humana, la equidad y los principios democráticos.

Esta propuesta se erige sobre la necesidad de una regulación que enmarque el vertiginoso avance de la IA, previendo los impactos potencialmente disruptivos en la sociedad, la economía y, en definitiva, en la vida de billones de personas. Es un llamado a balancear innovación y precaución, impulsando un desarrollo tecnológico responsable que priorice el bienestar humano sobre la mera expansión de capacidades computacionales.

La inclusión de principios como la igualdad, el respeto a las personas y la transparencia, es fundamental. Estos principios buscan asegurar que la IA sea un vehículo para la inclusión y la justicia, no para la exclusión o discriminación. Al establecer un marco de regulación basado en riesgos, se pretende prevenir usos indebidos que podrían afectar el comportamiento humano, la privacidad o incluso la integridad física de las personas.

La propuesta destaca la importancia de informar a los usuarios cuando interactúan con sistemas de IA, protegiendo así contra el engaño y promoviendo una mayor conciencia sobre la naturaleza y limitaciones de estas tecnologías. Esta transparencia es clave para construir una relación de confianza entre la tecnología y la sociedad.

Además, se contemplan sanciones para aquellos que incumplan con la ley, abordando tanto infracciones menores como graves. Este esquema sancionador refleja la seriedad con la que se deben tomar las responsabilidades éticas en el desarrollo y uso de la IA, poniendo énfasis en la protección contra la manipulación indebida y el respeto a la privacidad y dignidad de las personas.

Finalmente, la propuesta llama a la reflexión sobre el papel de la IA en nuestro futuro colectivo. No se trata solo de regular una tecnología, sino de guiar su desarrollo de manera que contribuya al bienestar común, respete los derechos fundamentales, y fomente un entorno seguro y justo para todos. La inteligencia artificial tiene el potencial de ser una herramienta poderosa para el progreso humano, siempre y cuando se enmarque dentro de un contexto ético y legal que garantice su uso responsable. Sólo a modo de ejemplo, esta columna así como su título se basaron en una propuesta de IA basada en el documento elaborado por el Centro de Política Pública e Inteligencia Artificial de UDLA.

Esperamos que esta iniciativa no sólo sea oportuna, sino que a su vez, sirva como insumo relevante para la necesaria y urgente discusión sobre cómo queremos que la tecnología moldee nuestro futuro.

Daniel Montalva Decano de la Facultad de Derecho Universidad de Las Américas