Nota: Si este artículo te parece demasiado largo, pídele a una IA que te lo resuma.

Luego, si quieres, léelo y verás lo que te perdiste.

Una amiga mía trabajó durante muchos años en una de las principales editoriales de España.

Según me contaba, no hay libro que no pase por filtros de corrección ortográfica, de estilo y de ritmo. Los editors, como se llama a estos profesionales muchas veces no reconocidos en los créditos, transforman los manuscritos originales para convertirlos en el libro que se publica finalmente.

Me puso ejemplos de escritores, incluso con premios nacionales, cuyas versiones originales estaban muy lejos de la versión final publicada. Me guardo esos nombres, pero podéis confiar en que es así.

Nadie se salva de la corrección editorial.

Por eso, su valioso consejo cuando escribí mi libro Optimización SQL en Oracle fue que contratara a un corrector. Y le hice caso.

La correctora de mi libro, Raquel García Rojas, figura en los títulos de crédito y en la lista de autores y colaboradores y fue considerada una coautora más, al mismo nivel que los correctores técnicos Jetro Marco y Arturo Gutiérrez.

Aún conservo sus correcciones: «esta frase no se entiende», «esta frase no se puede leer en voz alta», «aquí estás diciendo lo contrario de lo que pretendes decir».

Oro puro.

Para poner todo esto en fechas, tardé dos años en escribir el libro y la corrección técnica, gramatical y de estilo llevó otro año.

Sin esto, el resultado final no es publicable.

Lo mismo ocurre con la música.

Conozco anécdotas de primera mano de músicos famosos cuyos productores transformaron sus canciones para lanzarlas al mercado, dando lugar a versiones completamente distintas de sus temas originales.

Lo llaman arreglos.

No se concibe que un disco de estudio se publique directamente con la banda tocando todos a la vez. De eso, nada. Cada instrumento se graba por separado; cada línea se ajusta y se ecualiza; y si la voz desafina, se corrige la afinación. Ninguna discusión.

Aquí viene el encuadre que me interesa, más allá de un caso concreto.

En la vida real hay una tensión creciente: por un lado, estamos entusiasmados con el uso de la IA y los beneficios que aporta; por otro, se hace evidente la necesidad de realzar la voz humana, el criterio y la experiencia detrás de lo que publicamos.

No porque la IA sea «mala», sino porque es demasiado fácil producir contenido que suena bien sin que exista una persona real detrás.

La responsabilidad de los referentes.

 

En 2022 me otorgaron el reconocimiento de Oracle ACE Pro. El programa ACE promueve la divulgación técnica de expertos y reconoce su capacidad de comunicación, de transmitir conocimientos y cultura técnica, y valora que este trabajo altruista anime a los profesionales de Oracle a seguir creciendo y aprendiendo.

El premio es ad honorem: no hay retribución económica, pero en los niveles superiores hay ciertos beneficios, como la entrada al evento anual de Oracle, certificaciones y créditos cloud para usar en OCI, entre otros.

Como en cualquier programa basado en la reputación y las contribuciones, existen criterios para mantener el reconocimiento. Y en un espacio así, donde firmas con tu nombre y apellidos, es vital que lo publicado refleje tu voz y tu criterio como profesional.

Detrás de cada ACE hay una persona real y es vital que la identidad de esa persona firme todo el trabajo que hace por la comunidad, sea o no reconocida por un programa o premio. Precisamente por este reconocimiento, a los ACE nos corresponde ser éticamente responsables y referentes para el resto.

Pero ¿hasta qué punto deberíamos limitar el uso de la IA?

Aquí es cuando yo, purista de «escribir a mano con mi dedo-y-tecla» y defensor de la expresión imperfecta y natural, digo: «Va siendo necesario crear un código ético alrededor de esto».

Y ya para nota: dejarlo por escrito y hacerlo público.

En WIRED, un medio internacional de referencia en tecnología y cultura digital, han sido así de valientes: lo han puesto por escrito y lo han publicado en su web, dejando claro en qué términos aceptan y en cuáles no el uso de IA.

Porque los músicos enchufan sus guitarras a pedales de efectos, loopers, etc., que hacen que la guitarra suene distinta. Las voces se ecualizan, se usan compresores y reverb, incluso auto-tune en los más grandes. Y también los escritores tienen editors que les corrigen el estilo y la ortografía y traductores que llevan su libro a otros idiomas. ¿Por qué no consideramos aceptable el uso de IA para traducir al inglés un artículo original escrito por mí o para pulir la redacción o el estilo sin perder mi voz?

La IA lo está inundando todo.

 

Oracle incluso ha renombrado su producto bandera, la base de datos, como Oracle AI Database. Como parte del programa, los ACE divulgamos la transformación que supone la IA y cómo va a mejorar la calidad de nuestro trabajo, aprendizaje, negocios y la forma de resolver problemas o de crear nuevas soluciones.

Tiene sentido que seamos nosotros, los Oracle ACE, quienes demos ejemplo de un uso responsable y «humano» de la IA.

Creo que debemos establecer bases y declaraciones de principios sobre qué consideramos un uso razonable y ético de la creación de contenido. No podemos divulgar esta tecnología y a la vez no usarla de forma responsable.

Todos somos conscientes de que la IA no es muy buena creando contenido desde cero, pero sí lo es asistiendo en contenido ya maduro.

Es obvio que no queremos que en otros ámbitos suceda igual que en Amazon con su autopublicación, donde limitaron el número de libros que un mismo autor puede autopublicar a solo tres… ¡al día!, debido a la avalancha de libros autogenerados por IA que parecían una cosa pero carecían de experiencia humana.

Sucedió con guías turísticas «Conoce Roma a pie en 5 días» y un autogenerador de IA creaba libros automáticamente reajustando la ciudad: «Conoce Milán a pie en 5 días», «Berlín», «Madrid», «Nueva York». Las críticas, una vez estos libros se habían vendido por miles, apuntaban a que «posiblemente el autor no ha hecho a pie estas rutas, pues es humanamente imposible hacer estos recorridos y no morir en el intento».

También ocurrió con libros de cocina con recetas incomibles o con libros peligrosos que etiquetaban hongos venenosos como comestibles.

Incluso plataformas de formación como Udemy también están llenas de cursos generados por IA y con revisiones similares. “No parece que el profesor conozca el temario; más bien, parece que lee un guión de forma automática”.

Pero hay que tener cuidado. Nadie se libra de ser marcado con la letra escarlata aun siendo inocente.

Ronald Vargas, un referente en el mundo Oracle y un tipo del cual me fío mucho, recientemente pasó la documentación oficial de Oracle sobre «New Features» a través de una herramienta de detección de contenido generado por IA. Sorpresa mayúscula: una puntuación del 74% en contenido sospechoso.

¿Cómo es posible que algo así ocurra en la documentación oficial del fabricante, sobre todo cuando hablamos de contenido nuevo en nuevas versiones? Es casi imposible que se haya generado por IA. Ni siquiera hablamos de variaciones de la documentación existente, sino de contenido nuevo. ¿O quizás los redactores técnicos usaron IA internamente para elaborar la documentación oficial?

Estamos en un punto en que ni siquiera documentos oficiales, de fuentes oficiales y con contenido que no proviene de una base publicada anteriormente, pueden librarse de un falso positivo.

Y todo esto me recuerda a lo sucedido en Stack Overflow con la oleada de respuestas generadas por IA.

Todos queremos contenido humano, incluso la IA.

 

Stack Overflow es una comunidad tecnológica en la que expertos responden dudas y preguntas, creando reputación y prestigio con sus contribuciones. Se vieron sobrepasados al no poder distinguir qué respuestas eran generadas por IA y cuáles por técnicos reales. Sospechaban que muchas respuestas eran “generadas artificialmente” porque los usuarios se quejaban de que los textos parecían tener sentido pero fallaban técnicamente.

Según comunicaron públicamente desde Stack Overflow:

El problema principal es que, si bien las respuestas que producen ChatGPT y otras tecnologías de inteligencia artificial generativa tienen una alta tasa de ser incorrectas, generalmente parecen ser buenas y son muy fáciles de producir.

La solución que propuso Stack Overflow fue banear y cancelar a los usuarios sospechosos de haber usado IA.

Aunque hasta aquí todo correcto, finalmente se aliaron con OpenAI para integrar toda la base de conocimiento y entrenar a ChatGPT. El resultado fue que los usuarios se daban de baja en masa, otros eliminaban contenido y Stack Overflow recordaba que, aunque los usuarios borraran sus contribuciones, estas seguirían siendo propiedad de Stack Overflow, por mucho Creative Commons que tuvieran.

Ahí lo llevas: extraído de los términos y condiciones de Stack Overflow.

Sección 6. Content Permissions, Restrictions, and Creative Commons Licensing, apartado de “Subscriber content.”

 

 

Usted acepta que todo el contenido (…) que proporcione (…) tiene una licencia perpetua e irrevocable para Stack Overflow a nivel mundial, libre de regalías y no exclusiva.
Usted otorga a Stack Overflow el derecho y la licencia perpetuos e irrevocables para acceder, usar, procesar, copiar, distribuir, exportar, mostrar y explotar comercialmente dicho Contenido del Suscriptor, incluso si dicho Contenido del Suscriptor ha sido aportado y posteriormente eliminado por usted.
Esto significa que no se puede revocar el permiso de Stack Overflow para publicar, distribuir, almacenar y utilizar dicho contenido.

Desde hace varios años escribo una newsletter. Hace poco, un alumno me dijo que el día en que mi contenido fuera generado por IA, mi proyecto finalizaría porque lo importante es la persona que se juega la cara, que pone su «skin in the game», que publica un libro y se expone al juicio público de las revisiones de Amazon.

Estoy de acuerdo. A este mundo hemos venido a dar la cara.

El valor de mis contribuciones radica en la creación y divulgación de contenido propio. Soy yo quien ha probado, testeado, estudiado lo que firmo con mi nombre. Aquí digo que la creación de la obra es mía.

Sin embargo, la traducción, la corrección de estilo y la ortográfica (y tipográfica) las puedo pagar de mi bolsillo; las puede proporcionar el programa ACE o puedo dejarme asistir por una IA porque todos quieren y merecen leer un artículo fluido, sin faltas y, si no saben español, en inglés o en otro idioma.

La regla del 90% humano.

 

Creo que no me hace falta, pero tengo ganas de ponerme un “badge” acreditando que lo que escribo y creo tiene origen humano y de un humano en concreto (que soy yo).

Estoy seguro de que quien me lee puede identificar mi expresión. Y quizás llegue el día en que el contenido generado por IA no se diferencie tanto del generado por un humano.

Total, me puse a buscar plugins para mi blog que pudieran certificar que mis artículos no están creados por IA, y todo lo que vi fueron “humanizadores” de texto generado por IA, verificadores de plagio accidental o validadores de generación por IA.

En resumen, herramientas para hacer la trampa y que no se note.

Supongo que lo que está sucediendo es lo siguiente: la gente usa ChatGPT para crear artículos y contenidos, y les pasa estas herramientas para quitarles el tufo a IA y que suenen más humanos.

Si no damos un giro de 180 grados, todo el contenido acabará siendo creado por una inteligencia con creatividad mediocre y redacción excelente. Con suficientes filtros, acabará pareciendo “humano” mediocre sin serlo.

Sería como si algo estuviera hecho de forma imperfecta por un humano, pero no.

Entonces me topé con la propuesta de “Not By AI”, un movimiento que pretende poner en valor el contenido humano, sin sacrificar el beneficio que un uso razonable de la IA puede aportar a la mejora de la calidad de nuestra obra.

Not By AI propone un badge que acredite que el 90% del contenido ha sido generado por humanos, no como detector sino como declaración de principios. Resulta curioso que esa regla del 90% deja completamente fuera (no penaliza) usos como buscar errores gramaticales y tipográficos o traducir contenido con IA.

Se asume, por tanto, que ese es un uso razonable y ético y que no constituye suplantación de la autoría de la obra principal.

En mi caso, ese margen del 10% me queda muy holgado: escribo mi contenido, lo contrasto con la documentación oficial y no permito que una corrección gramatical sustituya ni mi expresión ni mi personalidad. Mi uso de la IA es en posproducción: para corregir errores tipográficos y ortográficos (siempre se me escapa alguna) y para traducir al inglés.

Traducción que, por cierto, también reviso posteriormente.

Por eso vuelvo a la idea central: en espacios donde hay reputación personal, es lógico que seamos sensibles al intrusismo y a la generación de «contenido industrial».

Esa sensibilidad debería distinguir entre «delegar la autoría» y «obtener asistencia editorial».

Cuando uno delega la creación en la IA, deja de ser el autor y, por lo tanto, pierde el crédito de esa creación.

Una vez que la obra está creada, el libro está escrito y la canción está compuesta, entonces sí: hagamos uso de aquellas tecnologías que ensalcen el valor y la calidad de nuestra aportación humana.

Que este nuevo marco sirva para impulsar, precisamente, a los humanos a seguir nuestro impulso vital de crear, y que podamos hacerlo aun más y mejor.

 

Fuentes:
Imagen de portada:
Share This