El desarrollo de la inteligencia artificial cada día avanza con más rapidez, al punto en el que científicos están apostando por el auto entrenamiento de esta. Sin embargo, los procesos indican que se necesitaría de un modo u otro la acción e intervención humana.
En el último año, figuras de la inteligencia artificial como Yann LeCun o Yoshua Bengio han estado explorando las posibilidades y estudiando los comportamientos de lenguajes de inteligencia artificial con el aprendizaje auto supervisado.
Actualmente la inteligencia artificial se entrena aprendiendo de lo que puede “ver” o escuchar, como lo hacemos los humanos, y con acciones de prueba-error. Sin embargo, se necesita quien le diga a la IA si está correcto o no, humanos. Además, existe el aprendizaje supervisado, que requiere que la inteligencia consuma mucha información marcada y escrita. Sin embargo, este método es cuestionable, ya que gran parte de nuestro conocimiento no está escrito y esto haría que no fuera posible llegar a un nivel de inteligencia como la humana.
Lo anterior es la razón por la que científicos y figuras de estudios de IA, están optando por apostarle a aprendizaje auto supervisado y/o predictivo. Métodos en los que un lenguaje podría consumir grandes cantidades de información no escrita (como muchas horas de video), y encontrarle el sentido, para después cumplir con tareas relacionadas, en las que podría incluso entrar la predicción del resultado de una situación.
A pesar de las existentes posibilidades de que la inteligencia artificial pueda entrenarse por sí misma, hay un riesgo inminente en esto, y es que, si obtienen la información de datos generados por IA, el lenguaje termina “perdiendo la cabeza”.
En un estudio de las universidades de Stanford y Rice, se demuestra como modelos de IA, que consumen información generada por IA terminan creando imágenes, textos y símbolos sin sentido. Esto representa un riesgo si se pretende que los modelos se entrenen por si mismos, al haber posibilidades de que en Internet encuentren información generada por otra IA, que es muy común hoy en día.
Esto dado a que se crearía un loop de MAD (Model Autophagy Disorder), o Desorden de autofagia de modelos, en los que un modelo consume contenido generado por sí mismo, y da resultados sin sentido, o menos eficientes. Aunque hay gran potencial en el desarrollo del auto entrenamiento de la IA y es posible que en un momento dado esta sea comparada con la humana, aun tomará tiempo llegar a algo así, y es casi primordial la presencia humana en el entrenamiento de esta.
Comments