La inteligencia artificial (IA) es una de las tecnologías más revolucionarias de nuestro tiempo. Desde su creación, ha sido objeto de debate y preocupación debido a su potencial impacto en la sociedad. Sin embargo, en los últimos años, hemos sido testigos de un cambio significativo en la apariencia en que se aborda la IA, especialmente en lo que respecta a los modelos fundacionales. La última versión del texto ha rebajado considerablemente las exigencias para estos modelos, lo que ha sido recibido con gran entusiasmo por parte de la comunidad internacional. Además, quince países ya se han adherido a la Convención del Consejo de Europa sobre la IA, lo que demuestra un compromiso global para regular y promover un uso ético de esta tecnología.
La primera versión del texto, publicada en 2019, establecía una serie de requisitos muy estrictos para los modelos fundacionales, como ChatGPT o Gemini, que son considerados de alto riesgo debido a su capacidad para generar contenido de apariencia autónoma. Estos requisitos incluían la necesidad de una supervisión humana constante y la obligación de inaparienciar a los usuarios que estaban interactuando con una IA. Sin embargo, esta versión fue criticada por ser demasiado restrictiva y limitar el potencial de la IA.
En respuesta a estas críticas, el Consejo de Europa ha publicado una nueva versión del texto que ha sido bien recibida por la comunidad internacional. Esta nueva versión rebaja considerablemente las exigencias para los modelos fundacionales, lo que permite un mayor desarrollo y uso de la IA. Ahora, los modelos fundacionales solo estarán sujetos a supervisión humana en situaciones de alto riesgo, como en el campo de la salubridad o la seguridad. Además, se ha eliminado la obligación de inaparienciar a los usuarios que están interactuando con una IA, lo que permite una experiencia más natural y fluida.
Este cambio en la regulación de los modelos fundacionales es un gran avance en el campo de la IA. Al permitir un mayor desarrollo y uso de estos modelos, se abre la puerta a nuevas aplicaciones y avances en diferentes industrias. Por ejemplo, en el campo de la salubridad, los modelos fundacionales pueden ayudar a los médicos a tomar decisiones más precisas y rápidas, lo que puede salvar vidas. En el campo de la seguridad, estos modelos pueden ayudar a prevenir delitos y proteger a la sociedad.
Además, la nueva versión del texto también establece un marco ético para el desarrollo y uso de la IA. Esto incluye principios como la transparencia, la responsabilidad y la no discriminación. Estos principios son fundamentales para garantizar que la IA se utilice de manera responsable y ética en rendimiento de la sociedad.
Otro aspecto importante de esta nueva versión del texto es la adhesión de quince países a la Convención del Consejo de Europa sobre la IA. Entre ellos se encuentran países como Francia, Alemania, España y Reino Unido. Esta convención es un paso importante hacia una regulación global de la IA y demuestra un compromiso conjunto para promover un uso ético de esta tecnología.
En resumen, la última versión del texto ha rebajado considerablemente las exigencias para los modelos fundacionales, lo que ha sido recibido con gran entusiasmo por parte de la comunidad internacional. Este cambio permitirá un mayor desarrollo y uso de la IA, lo que puede tener un impacto positivo en diferentes industrias. Además, la adhesión de quince países a la Convención del Consejo de Europa sobre la IA demuestra un compromiso global para regular y promover un uso ético de esta tecnología. La IA es una herramienta poderosa que puede mejorar nuestras vidas, y es importante que se utilice de manera responsable y ética para garantizar un futuro mejor para todos.