Calidades, acordes y desacuerdos en la edición (digital y en papel)

MahometFanatisme- Imagen: Wikipedia -

Le mieux est l’ennemi du bien

 François Marie Arouet, Voltaire

Mis últimos dos artículos han merecido –o han coincidido con la publicación de– sendas respuestas en los blogs de Emiliano Molina y Aharon Quincoces. Se trata de dos artículos muy interesantes con los que estoy de acuerdo y además demuestran que yo estaba equivocado en ciertos aspectos. Aun así, las cosas no son tan sencillas.

Cuando especialistas como Emiliano y Aharon –y Silvia Senz en Twitter– me enmiendan la plana yo me quito la boina y reconozco mi error: la calidad alcanzada en la edición en papel puede ser igualada por la digital. Tal como Emiliano dice en su artículo:

Como es lógico, el universo de la publicación digital está propiciando una miríada de cambios en los procesos editoriales. Sin embargo, considerar que la calidad que se puede alcanzar es inferior a la del texto impreso es un craso error por varios motivos. El principal es que los profesionales son los encargados de innovar, de investigar y de abrir caminos para una mejor labor de edición: como herederos de una larguísima tradición que se ha desarrollado siempre de la mano de los avances técnicos, debemos buscar la excelencia en todas las fases de la edición, desde las primeras correcciones hasta la publicación en formato electrónico.

Mientras que Aharon, en un pasaje de su artículo, afirma:

¿Es necesario ese trabajo por la calidad de edición del libro electrónico? Respondo en dos modos. Si es necesaria en el libro impreso, el libro digital no es menos, por tanto sí, incluso muchos más, porque justamente la percepción de que todo libro electrónico se edita igual está en la base de la idea de una edición automática, que difícilmente puede dar a cada libro electrónico lo que específicamente necesita.

Estoy de acuerdo con ellos: hay que buscar siempre la máxima calidad –y nunca he afirmado otra cosa. El problema es que la calidad no es un concepto platónico ideal; no podemos hablar de calidad sin atender al contexto industrial, técnico y comercial.

Los primeros libros impresos no imitaban la letra manual por capricho: el contexto en el que nacieron valoraba ciertos aspectos, ciertas calidades y cualidades. Hasta bien entrado el siglo XVI no se impusieron los tipos romanos e itálicos porque el público estaba acostumbrado al estilo manual y prefirió, durante décadas, los tipos góticos que lo imitaban.

El público no es el único factor a tener en cuenta, los procesos productivos también son importantes. Técnicamente es posible igualar la calidad de lo digital a la de lo impreso, pero eso no significa que sea económicamente viable; de la unión de la economía y la técnica nacen los procesos productivos que tienen como objetivo vender bienes de consumo generando margen de beneficio en la operación. Ergo la calidad no se puede separar de la realidad.

El proceso productivo del papel era el único posible hasta hace muy poco. Estable, previsible, con unas curvas de innovación y aprendizaje moderadas y una abundante cantera de profesionales bien formados. Eso no impidió que la rentabilidad del formato se degradase hasta tasas de devolución del 40% entre otros lúgubres indicadores del sector del libro. La llegada del libro digital no pilló a los editores en un momento de vacas gordas, al contrario. Si mantener el proceso productivo del papel ya es un combate constante contra la ineficiencia y otros elementos, pretender duplicar el proceso para incorporar otra línea dedicada a digital –dentro de la estructura editorial o externalizando el trabajo– es una utopía pese a las muchas eficiencias con las que cuenta el nuevo formato. Por eso, como dice Emiliano, el 90% de los editores no cuida la calidad de los libros digitales.

Quien dice duplicar también dice tratar el libro digital como un subproducto y un sobrecoste. Eso es lo que pasa cuando seguimos trabajando con InDesign y luego mandamos ese archivo –o el PDF de imprenta– para que lo conviertan a EPUB. Emiliano y Aharon saben que la gran mayoría de editores pagan por la simple conversión del archivo, no pagan por ulteriores procesos de calidad digital, los libros salen como salen y razón tienen en denunciarlo. Pero es que la mayoría de editores no tiene dinero para más si tenemos en cuenta los actuales procesos productivos. Muchos tampoco disponen de los conocimientos necesarios ni del tiempo y el dinero para adquirirlos. Difícil tesitura.

El contexto en el que hablamos de calidad es de caída de las ventas en papel, crecimiento lento de la lectura y la venta digital, un proceso productivo analógico poco rentable e incapaz de dedicar excedentes suficientes a la digitalización, falta de formación, falta de dinero para que las editoriales inviertan en nuevos procesos y un volumen total del negocio editorial que seguirá menguando los próximos años; las vacas gordas de antaño, esas vacas gordas, ¡ay! Nunca volverán. A diferencia de lo que afirma una conocida cadena alemana de supermercados, la calidad sí es cara.

Tenemos una reconversión pendiente que nos pilla sin dinero –que nadie mire hacia las administraciones públicas– y eso no es opinable. Sí lo es cómo la afrontemos. Podemos afrontarla formando a los editores en la edición digital para que sean capaces de duplicar los procesos productivos –aunque no podrán duplicar los recursos humanos– pero eso no los convertirá en especialistas. Podemos seguir como hasta ahora, los editores pueden seguir invirtiendo el grueso del tiempo, el dinero y el esfuerzo en la maquetación de libros a la antigua y dedicando muy poco dinero en la conversión del libro digital. La primera opción requiere de un tiempo del que no disponemos y de unos recursos inciertos. La segunda opción es lo que tenemos ahora y es dudoso que el grueso de editores dedique más dinero a la fase de conversión y calidad del subproducto digital porque no lo considera una inversión sino un sobrecoste y/o no dispone de más dinero.

La calidad ante la falacia del Nirvana

Estamos ante una falacia del Nirvana, un curioso nombre que se puede traducir por esa máxima volteriana que dice que “lo mejor es enemigo de lo bueno”. En un contexto ideal en el que la edición en papel arrojara excedentes suficientes para sostener una vigorosa reconversión estoy seguro que lo mejor sería pasar de un proceso analógico a otro digital con un corto período de transición. Dicho contexto sólo contemplaría la existencia de un formato digital y no el circo de ventanas de exhibición que ahora mismo tenemos, todas ellas compitiendo por la atención de un público lector que seguro que no aumentará mucho más que el habitual 1% anual.

Eso no sucederá. No está sucediendo. Necesitamos otras respuestas a los actuales problemas industriales y parte de estas respuestas deben ser industriales. El siglo anterior a la invención de la imprenta asistió a la aparición de ingeniosos sistemas de copiado manual en cadena, en paralelo y a la masiva adopción del papel, para surtir al creciente público universitario europeo. La solución –la imprenta– no consistió en dedicar más recursos y copistas a hacer lo mismo, la solución fue encontrar un sistema automático. Algunos lo hubieran llamado “botón mágico” con el que las palabras se escribían solas en el papel.

Tanto Røter como otras empresas con idéntico objetivo –ni estamos solos ni somos los primeros– ofrecen esa solución industrial. Se trata de una solución que permite que el editor trabaje una sola vez sobre el contenido y luego exporte a los diferentes formatos –comerciales o no– que necesite. Bajo esa perspectiva el PDF para imprenta es una ventana más junto a los EPUB, MOBI o HTML, una ventana con especificidades técnicas complejas. Actualmente ya hemos resuelto los principales problemas y Røter permite exportar desde HTML un PDF para imprenta técnicamente correcto y que tiene en cuenta requisitos ortotipográficos básicos y de composición. Sabemos que podremos resolver la mayoría de cuestiones pendientes a muy corto plazo de modo que los editores puedan disponer de una herramienta que integre los distintos procesos en uno solo.

Nosotros ya no pensamos en un proceso para cada formato, nosotros creemos que es posible integrar procesos para que el formato de salida sea el menor de los problemas de un editor, justo como hasta ahora: de lo menos que se preocupaba un editor al editar un libro de papel era de la impresión, pues la industria ya había solucionado el problema. El editor siempre se ha centrado en la calidad del contenido y es eso lo que debe seguir haciendo sin preocuparse más de lo necesario en el formato comercial de salida. Conociendo las posibilidades pero sin ser un experto, del mismo modo que no es un experto impresor.

Nada de lo que digo implica que ambas formas de entender la edición digital sean incompatibles. Habrá productos que exigirán un esmero que sobrepasará las posibilidades de plataformas integradas como la nuestra, especialmente al principio. Sabemos de las diferencias entre un trabajo manual y otro automático. Aharon expone:

Por otro lado es necesario ese trabajo de calidad sobre la edición electrónica si deseamos ver buenos, pero buenos de verdad, libros electrónicos. Que las ventas sean bajas no es una excusa admisible y no debemos permitiría a las editoriales que la usen. Ford no esperó a que se vendiesen muchos coches para hacerlos bien. Coches bien hechos a precios asequibles provocó una carrera hacia estándares mayores en cada modelo sucesivo. Mutatis mutandis ese podría ser un ejemplo a seguir por el mundo editorial.

Tomo el ejemplo pero me permito darle la vuelta: Henry Ford consiguió determinada calidad gracias a la fabricación en serie del Ford T, predecesora de la fabricación (casi) automática actual. Eso no quita valor a Rolls-Royce ni a sus automóviles fabricados (casi) a mano, al contrario. Cada producto tiene su público, su calidad y su precio. Con los libros electrónicos ocurre lo mismo, de eso hablaba cuando dije que había que adaptar la calidad al público, al precio y a su percepción –y para ser justos, Aharon también menciona este aspecto en su artículo y tiene razón cuando afirma que hay cuestiones que es importante mantener aunque no se perciban directamente, lo que yo no tengo claro es cuáles.

No creemos que se pueda prescindir de la ortotipografía –¿cuándo dije yo semejante cosa?– y sabemos que necesitamos a los especialistas para mejorar nuestra propuesta hasta un estándar de calidad que se adapte al contexto que nos ha tocado vivir y a las necesidades de los editores: una herramienta que permita hacer las cosas con una calidad óptima, hacerlo con menos recursos, ahorrando dinero, tiempo y aplicando las energías en aquello en lo que sí son especialistas: la edición de buenos contenidos.

La calidad es muy importante pero eso no significa nada si el mercado no puede pagarla. Ante la pregunta de por qué en España –y en otros muchos países– todavía se editan tan pocas novedades digitales y casi no se digitaliza fondo pocos ponen atención a los procesos y a su necesaria integración en aras de un abaratamiento directo de los costes.

En un futuro próximo editar en los distintos formatos deberá costar menos dinero que hacerlo sólo en papel; de lo contrario muchos editores no sólo serán incapaces de editar en digital sino que ni siquiera serán capaces de seguir editando nada en absoluto por cierre del negocio. La edición tiene su lado heroico pero no tiene por qué ser un martirio.

Bonus track: Emiliano Molina y Aharon Quincoces, en sus respectivos blogs, también informan sobre la constitución de la Asociación Española de Edición Digital #ebookspain y anuncia la celebración de las primeras jornadas #ebookspain Open en Sevilla el próximo febrero. Será cuestión de encontrar un hueco para poder asistir y, llegado el caso, debatir con Emiliano, Aharon, Silvia y quien se tercie.

La edición: entre los especialistas y los vendedores de humo

BUNKER-

Al hablar del impacto de las ideas en un campo sobre las ideas en otro, uno siempre corre el riesgo de hacer el ridículo. En estos días de especialización existen muy pocas personas que tengan una comprensión tan profunda de dos áreas de nuestro conocimiento como para no hacer el ridículo en una u otra.

Richard P. Feynman

Qué significa todo eso (Pag. 14) Ed. Crítica, 2004. Publicación del ciclo de conferencias John Danz Lecturer. Universidad de Washington, 1963

Mi último artículo acerca de los procesos WYSIWYG y WYSIWYM provocó algunas reacciones airadas y una peculiar conversación en Twitter. Pese a que en más de mil setecientas palabras intenté expresarme con moderación y prudencia hubo quien quiso ver un ataque frontal contra la ortotipografía. Nada más lejos de mi intención. Lo que yo dije fue lo siguiente:

  • Estamos pasando de un proceso de producción editorial con un solo producto final –el libro impreso– a otro proceso capaz de producir diversos formatos, libro impreso incluido.
  • La ortotipografía es el resultado de quinientos años de historia del libro impreso y es una disciplina hija de la industria del papel. Hyeronimus Hornschuch escribió el primer tratado sobre el tema en 1604, titulado Orthotypographia. Hornshuch aclaraba en el subtítulo: […] una útil lección para aquellos que quieren corregir trabajos impresos […].
  • Los nuevos formatos digitales no se adaptan del todo bien a los criterios de la ortotipografía pues en ellos el contenido no es fijo, no está impreso.
  • En ese contexto afirmo que los editores deberán modificar sus estándares de calidad ortotipográfica.
  • Una razón es que los nuevos medios ofrecen al usuario la capacidad de cambiar determinadas características del texto que hasta hace cuatro días eran asunto exclusivo de la ortotipografía (interlineado, elección de la tipografía, cuerpo de letra, composición justificada o en bandera, márgenes, etc.).
  • Otra razón es que la calidad percibida por el usuario es inferior a la calidad con la que trabajan muchos editores; trabajar con calidades superiores a las que demanda el mercado es tirar el dinero; otras industrias lo saben hace tiempo. A mí me molesta ver varios guiones seguidos al final de línea, dos o más comienzos o finales de línea con la misma sílaba, entre otras cosas; no tengo nada claro que la mayoría de lectores las tomen en cuenta.
  • De ahí que yo escribiera lo siguiente: […] acercándonos en lo posible a los estándares ortotipográficos actuales siendo conscientes que alcanzar el 100% no sólo no es posible, ni siquiera es estratégicamente recomendable.

Sigo afirmando que no es estratégicamente recomendable porque, de intentarlo, estaríamos encerrando la edición digital en un impropio corsé de papel, del mismo modo que los primeros impresores tuvieron que transigir con una serie de costumbres heredadas de los libros copiados a mano durante bastante tiempo. Decir que no es prudente llegar al 100% no implica tirarlo todo por la borda. Puede que nos quedemos al 90, 95, 97%. Lo ignoro.

Uno de los trolls habituales del sector entendió lo que le dio la gana y dijo que cualquier adaptación era una renuncia y toda renuncia una irresponsabilidad, ergo yo era un irresponsable por realizar semejantes planteamientos. Obviamente así no hay conversación posible. Silvia Senz –reputada filóloga y experta en ortotipografía– vino a decir lo mismo pero con mayor enjundia, pareció más proclive al diálogo pero dijo que si yo no era un especialista era mejor que me callara y también acabó llamándome irresponsable.

Troleo, discrepancia e impostura

Hace tiempo que ciertos ortodoxos digitales se ríen de lo que digo. No lo hacen nunca a la cara, nunca discrepan con argumentos y suelen limitarse a un troleo colorista pero inofensivo. Por eso esperaba que la presentación de Røter y la publicación de cualquier contenido relacionado fuera recibida con apelativos como “vendedor de humo”, “botón mágico”, “censhare low cost” y otras cariñosas apreciaciones totalmente faltas de argumentos. No me han decepcionado; ponerse a tiro es lo que tiene, forma parte del guión y si uno no quiere vivir ulcerado lo mejor es acostumbrarse.

A lo que no quiero acostumbrarme es a las imposturas intelectuales. Me sorprendió mucho que Silvia Senz dijera que no se puede hablar de algo si no se es especialista, pues mandó al garete, en un solo tuit, cualquier aproximación generalista a las cuestiones humanas. La especialización es una cuestión de grado de detalle. Todo especialista en un campo puede ser enmendado por otro especialista que trabaje en una parte todavía más reducida de ese campo, algo habitual en física, por ejemplo. El simple paso de la mecánica newtoniana a la mecánica relativista asegura muchas risas y broncas. En un mundo que va de lo infinitamente grande a lo infinitamente pequeño es arriesgado decir que la falta de especialización le impide a uno hablar de algo.

Los generalistas vivimos con el error a cuestas; como los caracoles, vivimos en él. Toda visión de conjunto peca de falta de detalle en cualquier aspecto. El valor de los panoramas generales está en sintetizar grandes volúmenes de información para comprender contextos de creciente complejidad. El objetivo es poder pasar de una aproximación anecdótica o táctica a otra estratégica. Ojo, ninguna de ellas es intelectualmente superior a la otra, son complementarias.

Decir que la ortotipografía no se adapta del todo bien a los nuevos medios digitales es constatar un hecho evidente. Ante ese hecho tenemos dos opciones: por un lado podemos afirmar que el problema está en los nuevos medios y por otro sostener que el problema está en la ortotipografía. La primera opción implica descartar para siempre ciertas capacidades digitales para que no entren en conflicto con la ortotipografía mientras que la segunda opción mandaría al guano la ortotipografía y todo lo que supone. Pues qué quieren que les diga, un servidor prefiere el camino de en medio: no creo que debamos tirar a la basura quinientos años de conocimiento pero tampoco creo que debamos supeditar el desarrollo de los formatos digitales al dictado ortotipográfico. Por eso afirmo que es necesario adaptarse y prescindir de una parte de los estándares aplicados hasta ahora puede ser una opción. Ignoro qué parte y en qué grado. No soy especialista y ahí no me meteré nunca.

Decir que una posibilidad está en hacer concesiones en aras de la adaptación a los nuevos medios puede ser equivocado pero es intelectualmente legítimo y de ningún modo irresponsable. En mi opinión lo irresponsable es cavar una trinchera intelectual y resistir en ella cualquier propuesta que, o bien cambie un contexto que consideremos favorable, o simplemente vaya en contra de nuestros propios prejuicios. No creo en un mundo lleno de especialistas incapaces de comunicarse entre sí, metidos cada uno en su bunker de ortodoxia, prestos a disparar al díscolo inconforme o al generalista que saca a pasear las ideas.

Como generalista estoy acostumbrado a dudar constantemente, a especular con escenarios variables y mundos posibles. Algunos lo llaman vender humo. Yo lo llamo intentar ser consciente del momento que vive la edición para encontrar salidas viables, porque hay valores de la edición tradicional que creo que valdría la pena no sólo conservar, sino potenciar. Para eso debemos distinguir entre lo esencial y lo accesorio. Para eso debemos equivocarnos mucho. Para equivocarnos es necesario salir del bunker y airear las ideas.

¿La alternativa? Rajar de todo lo que se mueva hasta que en este mundo sólo queden las cuatro multinacionales de rigor. Supongo que para entonces los trolls de la ortodoxia digital vivirán en un auténtico paraíso terrenal, con enemigos invencibles y causas realmente perdidas. Algunos hemos decidido que hay otra forma de hacer las cosas que hereda valores de lo conocido e incorpora las posibilidades de lo nuevo. Algunos sabemos que vamos a equivocarnos. Otros no parecen atreverse.

Nota: no se pierdan el blog de Silvia Senz, una buena forma de aproximarse a la ortotipografía. Y a los más atrevidos les recomiendo los dos volúmenes de “El dardo en la Academia. Esencia y vigencia de las academias de la lengua española” (VV.AA) el libro que Silvia Senz y Montserrat Alberte editaron para Melusina. Servidor los ha disfrutado mucho.

Røter como ‘hub editorial’: del WYSIWYG al WYSIWYM

OLYMPUS DIGITAL CAMERA- Fotografía: Wikipedia -

Cuando hace más de dos años empezamos el desarrollo de Røter teníamos más incertidumbres que certezas. Dos de las incertidumbres estaban relacionadas con la percepción de los editores; por un lado cómo explicar qué es Røter a un sector cuya digitalización es plenamente instrumental pero todavía no es estratégica; por otro lado cómo transmitir por qué es importante pasar de un proceso de trabajo WYSIWYG a otro WYSIWYM.

Røter como ‘hub editorial’

Al final llegamos a la conclusión que Røter es un hub editorial. La expresión no es nueva y es utilizada ya por algunas empresas del sector editorial, aunque no por un servicio como el que ofrece Røter. El concepto de hub está relacionado con aplicaciones mecánicas, de comunicaciones y transportes. Røter actúa como un nexo entre el contenido en bruto y los formatos comerciales finales y permite cerrar el ciclo editorial adaptando el contenido a la respuesta del mercado y a las nuevas necesidades y formatos que vayan apareciendo. Por eso llamamos a Røter hub editorial.

Del WYSIWYG al WYSIWYM

Si la definición de Røter entraña dificultades, mucho más complicado es convencer a los editores que es necesario pasar de un proceso de trabajo WYSIWYG a otro WYSIWYM. Según nos cuenta la Wikipedia, WYSIWYG es:

[…] el acrónimo de What You See Is What You Get (en español, “lo que ves es lo que obtienes”). Se aplica a los procesadores de texto y otros editores de texto con formato […] que permiten escribir un documento viendo directamente el resultado final, frecuentemente el resultado impreso.

Por ejemplo, tanto Word de Microsoft como InDesign de Adobe son programas en los que aquello que vemos en pantalla es fiel reflejo del resultado final. Cuando exportamos un PDF para imprenta desde InDesign no tenemos ninguna duda –si lo hemos hecho todo bien– de cómo será el resultado en papel. El proceso WYSIWYM trabaja de modo diferente. Veamos qué dice Wikipedia:

WYSIWYM es un acrónimo que significa “lo que ves es lo que quieres decir” (en inglés: What You See Is What You Mean). […] el usuario se encarga de introducir los contenidos de forma estructurada siguiendo su valor semántico, en lugar de indicar su formato de representación final. Por ejemplo, indicando si lo que está escribiendo es un título, una sección, un autor, etc.

Røter es un editor WYSIWYM. Eso significa que el contenido se edita por un lado mientras que el formato –la maquetación– se aplica al final gracias a plantillas CSS. Es decir, necesitamos realizar previsualizaciones de prueba para ver cómo va quedando, no lo vemos directamente en pantalla.

A muchos editores eso les parecerá un innecesario paso atrás. Si ahora pueden controlar hasta en los detalles más nimios la maquetación de un libro, ¿por qué trabajar con una herramienta que automatiza dicho proceso con la pérdida de control que ello conlleva? Para responder a dicha pregunta debemos retroceder un poco en el tiempo, unos quinientos años.

Del WYSIWYG de la Edad Media al WYSIWYM de la imprenta.

Tanto en los scriptorium monacales como en los de las catedrales urbanas se trabajaba bajo procesos WYSIWYG; el trabajo de los amanuenses se reflejaba directamente en la obra final porque trabajaban sobre la misma obra final. Pese a que la aparición de las universidades llevó a la adopción de procesos más eficientes el sistema no cambió en lo esencial hasta la aparición de la imprenta (ver LA APARICIÓN DEL LIBRO, Lucien Febvre y Henri-Jean Martin. México DF, 2005. Fondo de Cultura Económica).

Con la imprenta aparece el primer proceso WYSIWYM de la historia del libro. Es la primera vez que autores y copistas –y luego editores– pierden el control directo del aspecto final de los ejemplares de la obra. Saben que serán todos iguales, saben que se producirán en masa, en poco tiempo y a un coste asequible. Aunque los primeros tipos móviles intentaron copiar el aspecto manual de los libros copiados a mano llegando a producir tipos especiales que reprodujeran las ligaduras entre diversas letras y sílabas, pronto los fundidores aprendieron que un verdadero trabajo estándar exigía una profunda renovación estilística.

Desde el siglo XV hasta finales del siglo XX el sector editorial trabajó bajo criterios WYSIWYM. Hasta finales del siglo XVIII hubo muy poco avance tecnológico y el siglo XIX sólo vio progresos industriales y de producción en masa. Mejoró la velocidad y la calidad de impresión, se abarataron procesos, pero ni autor ni editor sabían, de antemano, qué aspecto tendría la obra final y tampoco tenían demasiado control sobre ella –y no parecía preocupar mucho nadie en comparación con los quebraderos de cabeza que sí causaban los cajistas humanos poco cuidadosos. Eso tampoco cambió cuando Ottmar Mergenthaler inventó la linotipia en 1886. La composición del texto a imprimir se aceleró mucho pero esa ventaja sólo fue aprovechada por los impresores; Los editores sólo podían contar con algunas impresiones de prueba para realizar los cambios imprescindibles.

La linotipia no cayó en desuso hasta la década de los 70 del siglo XX y la fotocomposición tampoco cambió demasiado el panorama. La aparición del programa PageMaker en 1985 sí lo cambió todo; tras quinientos años trabajando bajo parámetros WYSIWYM la edición empezó a controlar el diseño de lo impreso antes de llevarlo a imprenta.

El espejismo del control o cómo desandar treinta años

El paso a WYSIWYG fue un gran avance pero también un callejón tecnológico sin salida; aparecieron programas como QuarkXPress, Freehand e InDesign, sin los cuales no podríamos entender los últimos treinta años. La calidad de la impresión alcanzó lo nunca visto pero esa plena digitalización instrumental implicaba la fosilización estratégica de un mundo analógico. Programas como InDesign son un avance incremental en comparación con la imprenta de tipos, la linotipia y la fotocomposición pero demuestran el agotamiento de una forma de hacer libros. No se puede ir más allá si consideramos los retos de la nueva industria digital de contenidos.

Mientras el libro de papel fue el único libro posible el camino descrito fue el único viable, una senda de especialización extrema. Si los editores hubieran controlado desde el principio el libro digital es probable que el nuevo paradigma se basara en el PDF o un formato WYSIWYG similar porque ninguna industria manda a la basura treinta años de desarrollo tecnológico –y mucho menos quinientos. Pero así como la gran disrupción de la imprenta fue impulsada por orfebres –algunos de los tecnólogos del siglo XV, totalmente ajenos al copiado manual– el actual libro digital fue impulsado por los tecnólogos de nuestra época y por eso en las entrañas de los libros digitales tenemos XML y HTML, lenguajes de programación –para ser más precisos, de marcado– totalmente ajenos al sector editorial.

Las herramientas WYSIWYG ofrecen un control absoluto del resultado final de una obra impresa, pero casi no ofrecen nada para el resto de ventanas y entornos de publicación. No sólo debemos contar con la dicotomía entre libro de papel y libro digital, también debemos tener en cuenta nuevos entornos de lectura en redes sociales, tabletas y smartphones, mediante descarga del archivo o lectura en la nube. El nuevo escenario implica responder a los formatos actuales pero también a los futuros y, bajo ese prisma, es suicida seguir ligados a herramientas pensadas sólo para publicar los mejores libros de papel. Con dichas herramientas el texto editado es texto muerto en otros formatos. Por mucho que las últimas versiones incorporen opciones de exportación a formatos digitales el modo de trabajo que imponen es ajeno al nuevo paradigma. Si en siglo XV le pidiéramos a un amanuense que copiara a mano un libro entero para mandar esa copia a la imprenta de Gutemberg estaríamos cometiendo un absurdo despilfarro.

¿Y la calidad ortotipográfica?

Editar y maquetar un libro para luego mandar el PDF a convertir a EPUB –y a cualquier otro formato– equivale a tirar el dinero. Lo que muchos editores se deben estar planteando es: si el proceso WYSIWYM automatiza la maquetación, ¿dónde queda la ortotipografía?

Las herramientas digitales WYSIWYG permiten controlar hasta la náusea detalles que antes de 1985 estaban sujetos a severas limitaciones técnicas. Hoy es posible reproducir detalles (casi) imperceptibles por el ojo humano.

Media una gran distancia entre los criterios ortotipográficos de los editores y la percepción de calidad de los lectores ante un libro de papel. Muchos de los problemas que vemos quienes tenemos el ojo entrenado pasan absolutamente desapercibidos para la gran mayoría de lectores. No es que no los vean, es que para ellos no son –ni serán nunca– ni un error ni un problema y no comparten nuestro horror ante las viudas y las huérfanas, por poner sólo un ejemplo.

Viudas y huérfanas, siguiendo con el ejemplo, son sólo un problema en la edición de papel y es bastante más raro oír hablar de ellas en la edición digital –aunque hay quién lo intenta– porque la posibilidad del lector de adaptar el texto según su comodidad a cada dispositivo implica que, o bien nunca quedarán líneas viudas ni huérfanas, o bien siempre serán distintas.

Lo que todo esto significa es que ante el reto de editar contenidos para distintas ventanas de exhibición –papel, digital, lectura en la nube, en el PC, en la Tablet, en el Smartphone, etc.– debemos hallar un nuevo común denominador de calidad de producción que pueda incluirlas a todas. Para eso es necesario desandar parte del camino ortotipográfico de los últimos treinta años o de lo contrario a las editoriales les costará mucho más, en términos de aprendizaje, tiempo dedicado y dinero invertido, adaptarse al nuevo paradigma. Para ser más claros: sobrevivir a lo digital implica bajar el nivel de auto exigencia ortotipográfica en papel al nivel de exigencia de calidad percibida del común de los lectores.

Aquí es donde el concepto de hub editorial enunciado al principio toma sentido: trabajando el contenido en HTML este siempre estará disponible para tomar el formato comercial que sea necesario, sea presente o futuro. No solo es posible producir un PDF para imprenta y otros formatos digitales, es que nunca más será necesario maquetar un PDF para imprenta y la decisión de editar tapa dura, rústica y bolsillo será una simple cuestión de ejemplares a imprimir, no de costes de maquetación. Debemos pasar de la edición analógica con herramientas digitales de libros de papel a la edición digital de todo tipo de formatos comerciales, incluidos los de papel.

El reto, para nosotros en Røter y para los desarrolladores de cualquier plataforma similar, es ofrecer herramientas capaces de satisfacer las necesidades de esos editores, acercándonos en lo posible a los estándares ortotipográficos actuales siendo conscientes que alcanzar el 100% no sólo no es posible, ni siquiera es estratégicamente recomendable. La flexibilidad del mercado editorial exige herramientas versátiles capaces de adaptarse a los constantes cambios en entornos y formatos. Lo que nunca debe cambiar es la exigencia de los editores de libros, de las editoriales independientes, de ofrecer a sus lectores los mejores contenidos.

-

submarques.indd

Os presento Røter, nuevo software de edición

submarques.indd-

El pasado 14 de enero, en este mismo blog, os hablaba de un año de cambio por delante y de algo que se iba cociendo a fuego lento. Tras intensos meses de trabajo para ponerlo todo a punto ya puedo hablar del proyecto en el que llevo implicado más de dos años: Røter, plataforma en la nube para la edición profesional multiformato.

El concepto de Røter

Imaginad una herramienta que permita controlar todo el proceso de edición, desde la entrada del manuscrito hasta la producción de los formatos comerciales. Imaginad que todo eso pueda hacerlo el editor de mesa, coordinando todos los profesionales implicados en el proyecto editorial. Imaginad producir el PDF para imprenta, los EPUB, MOBI y HTML a la vez, sin retrasos ni costes adicionales. Imaginad poder controlar la calidad de cada uno de los formatos de un mismo título como si fuera la versión en papel. Imaginad pagar sólo por el uso real, según vuestras necesidades, para sacar el máximo partido de las capacidades de vuestra editorial. Eso es Røter y estos son sus puntos fuertes:

Centrado en la calidad del contenido: al centrarse en el contenido y no en el formato de salida, permite editar el texto una sola vez, sin necesidad de perder el tiempo en procesos posteriores de conversión de formatos, controles de calidad adicionales ni versiones distintas de un mismo texto.

Pensando en la edición de mesa: el editor de mesa se convierte en el coordinador de todo el proyecto; a la vez que edita el contenido no debe preocuparse por el diseño ni por el formato, pues ambos son automáticos: al final del proceso es él quien los genera todos.

Preparado para trabajar en equipo: con Røter todos los colaboradores de la editorial, tanto internos como free-lance, forman un equipo integrado. El editor que trabaja con Røter puede designar los profesionales que trabajarán en el proyecto, darlos de alta en la plataforma y administrar su acceso.

En busca del ahorro directo e indirecto de costes: con Røter es posible prescindir de los servicios de maquetación y ya no es necesario mandar a convertir los archivos PDF o InDesign a EPUB con el tiempo y el dinero que eso supone.

Permite aprovechar mejor los recursos: los editores cada vez deben dedicar más tiempo y recursos al conocimiento de los lectores, de sus clientes. Røter permite dedicar más recursos a dicha tarea al simplificar los procesos habituales.

Para un mayor control del proceso editorial: Røter dispone de un cuadro de mandos que ofrece una visión panorámica de todos los proyectos en marcha, de la fase en la que se encuentran y de quién está trabajando en ellos.

Las dos versiones de Røter

Røter cuenta con dos versiones:

Røter es la versión de producción con todas las funcionalidades. Integra todas las prestaciones para la edición y producción de proyectos editoriales en todos los formatos.

Røter LT es la versión de conversión de fondo editorial. Ofrece la posibilidad a los editores de digitalizar su fondo a bajo coste, controlando todo el proceso. Está simplificada al máximo para que una sola persona pueda digitalizar el fondo editorial en los formatos EPUB y MOBI a un coste muy inferior que las opciones actuales y controlando la calidad de los archivos de salida.

Facilidad de uso

La facilidad de uso de Røter es algo que nos ha obsesionado desde el principio. En un contexto de cambio tecnológico Røter no debía ser un desafío más, sino una ayuda. Hemos conseguido que todo profesional acostumbrado a usar cualquier procesador de textos pueda empezar a trabajar con Røter casi desde el principio. El proyecto de prueba gratuito permite familiarizarse rápidamente con la plataforma y despejar aquellas dudas que puedan ir surgiendo.

Calendario de lanzamiento de Røter

No tenemos todas las respuestas. No contamos con un elixir milagroso ni curalotodo. No somos la respuesta a preguntas que no existen. Røter es plenamente funcional pero sabemos que, como producto, todavía necesita de una pizca más de desarrollo; por eso Røter arranca en beta cerrada y durante las próximas semanas lo probarán varias editoriales y empresas con las que ya hemos contactado y han mostrado interés. Con ellos podremos testar la plataforma en entorno real e implementar los cambios y mejoras que sean necesarios.

Una vez pasada esta etapa abriremos la plataforma para invitar a otros muchos a probar Røter.

Quiénes somos

Røter es un producto de Pändøo Technologies SL, nueva empresa de servicios tecnológicos basados en la nube, también conocido como Software as a Service (SaaS). Pändøo lo componen tres profesionales:

Albert Torrens / CEO de Pändøo

Ricardo González / CTO de Pändøo

Bernat Ruiz / Director de Producto de Pändøo

Todavía estamos en obras y no será raro que encontréis algún que otro “Lorem ipsum” en la web, alguna pared por pintar, o puerta que instalar. Ya tenemos Twitter y en breve pondremos en marcha una página de Facebook. No queríamos tardar más en dar a conocer el proyecto. Sabemos que nos vamos a equivocar en más de un aspecto y somos conscientes que los editores pueden enseñarnos muchas cosas de su oficio; estamos convencidos que en lo fundamental hemos acertado con Røter y que podemos ofrecer una herramienta muy útil a la edición independiente.

Para contactos de prensa: press@ipandoo.com

Durante las próximas semanas iré publicando más información acerca de Røter. ¡Espero no aburriros demasiado!

Deberíamos acabar con las subvenciones (directas) a la cultura

PESCA-

El pasado lunes Manuel Gil, en su imperdible artículo semanal, abogaba por aumentar las subvenciones a la cultura en España. Tal como Manuel pone de manifiesto en su artículo, en comparación con otros sectores –industrial y energético, por ejemplo– la cultura está muy poco subvencionada. ¿Debemos aumentar las subvenciones a la cultura? Manuel cree que sí. Pese a que suscribo sus objetivos –aumentar la difusión de los productos culturales y así aumentar el nivel cultural de los españoles– no creo que las subvenciones directas sean un buen camino.

Manuel habla de las revistas culturales y de pensamiento pero el debate es de aplicación a otros muchos productos culturales, léase producto como algo que alguien produce y pone a disposición de terceros. En ese sentido tanto la obra de Pau Casals como el catálogo de la editorial de cromos Panini contienen productos. La puesta a disposición a terceros puede realizarse mediante venta, préstamo, comunicación pública y un largo etcétera.

En su artículo Manuel Gil compara la subvención a la cultura con la subvención a la industria, la energía o las infraestructuras. Los últimos gobiernos han reducido las ayudas culturales hasta la risa –ahí están los 150.000 euros para las librerías o los 630.000 de subvención a las revistas culturales– mientras que el apoyo a otros sectores sigue siendo multimillonario.

Diferencias cuantitativas y cualitativas

Las subvenciones pueden dividirse en dos categorías en función del tipo de criterios utilizados. En unas se aplican criterios objetivos y cuantificables. En otras se aplican criterios subjetivos y no cuantificables. Ninguna de ambas categorías es pura y algo comparte con la otra pero podemos establecer esta división sin equivocarnos demasiado.

Las subvenciones a la industria parten de criterios objetivos y cuantificables. Eso no significa que sean procesos prístinos; mediante leyes, reglamentos y pliegos de condiciones podemos introducir sesgos y arbitrariedades –lo vimos hace poco– pero, una vez establecidas las reglas, el proceso se basa en elementos objetivos e incluso previsibles. En caso de mala praxis las cosas se pueden poner difíciles para el responsable si alguien recurre ante mesas de contratación o ponerse muy feas si lo hace ante los tribunales.

Las subvenciones a la cultura se basan en criterios no cuantificables y subjetivos –excepto cuando se subvencionan los medios de producción, en cuyo caso podría tratarse de una subvención industrial cuantificable y objetiva– pero aquí hablamos de la subvención a la producción directa, no a sus medios. Tal como Manuel Gil lo expone:

[…] Imaginemos 100 revista culturales, estas llegaban a una media de 500 bibliotecas en España. Total ejemplares: 50.000. Si usamos un ratio de difusión y multiplicamos que cada revista podía tener un índice de 8 lectores (por lo bajo), hemos dejado de ofertar lectura de revistas a 400.000 lectores de las bibliotecas. Me pongo al habla con algunos editores de estas revistas […] que preferían el antiguo sistema […]: tenían una enorme visibilidad en multitud de pequeñas bibliotecas y se generaba un flujo indirecto y cruzado de gente que se suscribía y/o compraba algún numero suelto a la editorial. Por otro lado se mantenía un cierto nivel de servicio público en las bibliotecas. Luego vamos a ir desterrando el concepto derroche.

No pongo en duda la utilidad social de la cultura ni el retorno social de las bibliotecas –largo y tendido he hablado aquí sobre ello– pero una cosa es estar de acuerdo en los principios y otra muy distinta estarlo en el análisis. Manuel parte de la base que esas 100 revistas culturales merecen ser subvencionadas. El problema es establecer los criterios según los cuales una revista debe ser subvencionada y otra no.

Como ya comenté hace tiempo las subvenciones culturales se acaban decidiendo en una comisión nombrada a dedo por el ministro, el consejero o el concejal de turno. Aunque en las bases de la concesión hay algunos criterios cuantificables, la mayoría de puntos se otorgan de forma subjetiva. Incluso si quienes las conceden se basan en sesudos debates sobre el arte, la cultura y el pensamiento, lo harán según su particular criterio. Los ocho, diez o doce miembros sin piedad son humanos, con sus filias y su fobias y la consecuencia es que una mala decisión es (casi) indemostrable y cualquier prevaricación es (casi) imposible de recurrir ante los tribunales. Ergo la ciudadanía está indefensa y con ella aquellos que no han tenido la suerte de ser agraciados.

Hasta hace poco las limitaciones que imponía la realidad analógica hacían muy difícil salir de la ley del embudo: muchos eran los llamados, pocos los elegidos y era irracional hacerlo de otra forma. Hasta hace poco comunicar cualquier contenido escrito exigía manchar una cantidad considerable de papel y quemar un montón de combustible. Hasta hace poco sólo podíamos poner a disposición del público –en bibliotecas y librerías– aquello que se esperaba o se suponía que era de su interés, a menudo desde un vertical paternalismo ilustrado.

Ninguna subvención sucede en el vacío y la realidad económica de las revistas culturales se basa en cuatro posibles fuentes de ingresos. En primer lugar –las que son de pago– reciben dinero de suscripciones y de la venta de ejemplares sueltos. En segundo lugar cuentan con la inserción de publicidad por parte de empresas privadas. Cuentan también con la inserción publicitaria de las administraciones públicas. También pueden optar a subvenciones directas. De estas cuatro opciones sólo las dos primeras están sujetas al desempeño profesional y comercial de sus responsables. Las otras dos dependen de la idea de cultura de varios responsables públicos, desde el ministro hasta el concejal de cultura del villorrio más pequeño. Si el anverso del descenso de la subvención a la cultura es la crisis y la desaparición de publicaciones que ofrecen contenidos valiosos e interesantes, el reverso tenebroso es el montón de responsables de centros públicos aliviados al dejar de dedicar espacio y recursos a productos sin lectores, sin salida y, al cabo, sin interés. En España se ha abusado de la compra con destino a bibliotecas como forma de subvención encubierta sin atender a la calidad de lo comprado ni al interés de los usuarios.

Preguntas de muy difícil respuesta

¿Por qué suponemos que todas las revistas culturales actuales son de interés para alguien? En caso de serlo ¿qué número de lectores justifica determinada subvención? ¿Quién determina qué es interesante y qué no en un contexto de recursos finitos –es decir, tanto en vacas gordas como flacas– o incluso muy limitados como el actual? ¿Disponemos de datos exactos, fiables e independientes de lectura y préstamo de revistas culturales en bibliotecas públicas? ¿Servirían dichos datos para otorgar más o menos subvenciones? En un mundo en el que encontrar contenidos culturales de cierta calidad –gratuitos y de pago– sólo requiere algo de tiempo, ¿cómo justificamos seguir mandando revistas a las bibliotecas esperando que sean de utilidad e interés para alguien? ¿Los ocho lectores de media a los que alude Manuel Gil son suficientes, muchos, pocos y en relación con qué otras cifras? ¿Tenemos la certeza que las bibliotecas físicas que las reciben –o las recibían en el escenario expuesto por Manuel– son las adecuadas o nos faltan datos para saberlo?

No tenemos respuesta para todas estas y otras muchas preguntas pero eso no les resta relevancia, al contrario, señala lo sensible y complejo del asunto. Cualquier sistema de subvención de la cultura debe ser capaz de responderlas. La cuestión más difícil es también irresoluble en un mundo finito: ¿cómo discriminamos aquellas que merecen subvención de aquellas que no la merecen? Cualquier sistema público de subvenciones tiende a comportarse como un gas, pronto agota todo el espacio disponible. Siguiendo con el ejercicio matemático de Manuel Gil, si ya estamos subvencionando cien ¿con qué motivo negaremos la subvención a otro centenar, a quinientas más o a miles? Por muy alto que pongamos el techo de gasto siempre habrá más y más proyectos por subvencionar porque nunca tendremos la herramienta de discriminación perfecta e infalible basada en la calidad y no en criterios administrativos que se convierten en el actual galimatías disuasorio que desanima a muchos a solicitarlas.

Manuel Gil apunta una serie de acciones que a mi me suscitan más dudas todavía, especialmente las dos primeras, mientras que las dos últimas contienen, en mi opinión, la solución a buena parte de los problemas:

  • Subvencionar únicamente aquellos productos editoriales que sean de imprescindible incorporación al acervo cultural y patrimonio bibliográfico español y sean muy difícil de producir y/o comercializar.
  • Aumentar la dotación de subvenciones a libros y revistas pero haciéndolas llegar a las bibliotecas. Volver al antiguo sistema.
  • Subvencionar la demanda de los particulares en paralelo a potentes políticas de adquisiciones que garanticen el mantenimiento de los servicios de bibliotecas.
  • Favorecer y estimular la conformación de empresas muy sólidas, competitivas, exportadoras, y de fuerte músculo financiero y empresarial (y que creen empleo de calidad), en un intento estratégico de fortalecer el sector.
  • Desarrollar un mecanismo de control de retorno de inversión de ese dinero público en la sociedad.

Los productos a incluir en el primer punto están bastante claros si tienen más de quinientos años de antigüedad. Por ejemplo, pocos se negarán a subvencionar una edición facsímil del códice de la Biblia de Ripoll con el objetivo de preservar y difundir la obra original. Mucho más complicado será decidir si una edición completa de las obras de Corín Tellado merece una subvención por citar un tipo de literatura que a muchos repugna y a muchos deleita. Toda lista tiene límites, los culturales son muy borrosos y el problema está ahí.

Volver al antiguo sistema plantea los problemas que ya hemos expuesto y no responde a casi ninguna de las preguntas. En cambio la subvención a la demanda que plantea Manuel –yo prefiero llamarla incentivo– sí puede funcionar porque involucra al público en la selección de aquello que considere o no valioso; encontrar el mecanismo de incentivar económicamente el consumo cultural –directamente o mediante desgravación fiscal– será complejo pero no imposible. Cuando hablo de público no me refiero a la chusma lerda e iletrada en la que muchos piensan; hablo de públicos diversos cuya masa crítica permite la viabilidad de (casi) todos los productos culturales concebibles, desde los consumidores compulsivos de Chick-lit hasta los amantes de la poesía latina en versión original.

Los dos últimos puntos deberían estar en la base de cualquier política, no ya cultural sino industrial, de cualquier sector y eso abre un debate tan necesario para todos como repugnante a buena parte del sector cultural español: separar netamente aquello que atañe a la cultura de aquello que corresponde a la industria acabando de una vez por todas con el binomio “industria cultural”, tan diferente en sus implicaciones de binomios como “industria automovilística” o “industria pesquera”.

Los retos industriales necesitan respuestas industriales adaptadas a cada sector pero no condicionadas hasta el extremo por cuestiones ajenas a lo industrial. Tanto la del automóvil como la de la pesca son industrias que preservan sus propios acervos culturales e históricos pero lo hacen en los museos e instituciones culturales a tal fin. No veremos a nadie pedir una subvención para volver a fabricar el venerable Ford T y nadie pretenderá montar una pesquería a partir de la pesca fluvial con mosca. Hay cosas que otras industrias mandan al museo o al ámbito amateur, por eso son industrias y no artesanías. Ojo, eso no significa que no podamos reeditar por enésima vez la Historia de la Guerra del Peloponeso de Tucídides –incluso en griego clásico–, pero deberemos hacerlo si contamos con el público susceptible de sostener el proyecto –estoy convencido que ese público existe, lo difícil es encontrarlo. Que dicho público reclame el producto comprándolo o mediante herramientas participativas vinculadas a las bibliotecas públicas depende de poner los medios necesarios, medios que rendirán mucho más que seguir enterrando dinero en proyectos de incierto –cuando no nulo– retorno.

El problema no es que el retorno sea nulo, es que sea incierto. La bondad de las subvenciones basadas en criterios objetivos y cuantificables es que es bastante fácil –si se desea– calcular el retorno bruto total incluyendo el retorno social y otras externalidades tanto positivas como negativas. El gran talón de Aquiles de las subvenciones culturales es que es harto difícil justificar racionalmente cualquier cosa, por eso este debate no va de dinero, no consiste en decidir si hay poco, mucho o suficiente, sino en encontrar una forma de incentivar la compra y el consumo de cultura, tanto pública como privada, que responda a las realidad de los usuarios del sistema, es decir, los ciudadanos por y para los que debería trabajar cualquier administración pública.

Lo importante es, en cualquier caso, estar de acuerdo en que necesitamos gestionar las aportaciones públicas a la cultura de otro modo. No se trata de una transición fácil ni rápida, lo importante –y en eso creo que coincidimos Manuel y yo– es que nada volverá a ser como antes. El fin de las crisis –la de la edición y la de todos– no nos devolverá el pasado conocido, sino que planteará retos nuevos a partir de cambios profundos en el uso que los ciudadanos hacen de la cultura. A ellos deben adaptarse administraciones públicas y agentes culturales, no al revés.

La UE intenta solucionar la estupidez del IVA del libro con una tontería fiscal

Spain's Education Minister Jose Ignacio Wert speaks during an interview with Reuters at his office in Madrid-

Érase una vez la Unión Europea que, ensimismada en su mecanismo, decidió que como los libros digitales son software tenían ser tratados como servicios y tributar al tipo normal de IVA. Dio igual cómo lo usaran los lectores, el único criterio fue técnico: si lees en un dispositivo el mismo libro que podrías leer en papel pagarás más IVA. Una estupidez.

No sé si a los grandes grupos editoriales la cosa les pilló de sorpresa, durmiendo o miraron hacia otro lado pensando que esa medida protegía indirectamente el negocio de papel. Lo que sí sabemos es que dos tipos de organizaciones se apresuraron a beneficiarse de la medida, por un lado los Estados que juegan al dumping fiscal, como Luxemburgo –descubierto recientemente en tan legal como poco edificante trama– y por otro aquellas multinacionales que juegan al escondite con los impuestos vendiendo aquí y tributando allí. Todo legal, eso sí.

Ahora la UE ha decidido arreglar tamaña estupidez con una tontería fiscal. Tal como nos cuenta Arantxa Mellado en Actualidad Editorial:

A partir del 1 de enero de 2015 entra en vigor la Directiva comunitaria de 2008 según cual la tasa de IVA que grava los libros digitales será la del país donde se encuentre el comprador/consumidor (para la CEE, el ebook no es un producto, sino un servicio digital). Hasta ahora el IVA imponible era el del país donde estuviera domiciliado el vendedor/prestador del servicio.

Dejaremos para mejor ocasión que entre la promulgación y la entrada en vigor de una directiva pasen siete años. Sí recalcaremos que la UE no ha reaccionado en respuesta al clamor –tibio y poco convincente– del sector editorial, sino de aquellos Estados que más dinero perdían con el troleo institucional de Luxemburgo. La dirección emprendida es fiscal, no cultural.

Si grandes Estados con grandes grupos editoriales como Francia, Reino Unido, Alemania, España e Italia hubieran presionado para equiparar el IVA de los libros digitales con el de los libros de papel no me cabe duda que el 1 de enero de 2015 el paisaje sería muy diferente. Sin los Estados citados no se cocina nada en la UE por una cuestión de PIB y peso demográfico. Debemos preguntarnos qué han estado haciendo –o qué no han estado haciendo expresamente– los respectivos lobbies editoriales para que la medida sólo beneficie la recaudación de los Estados.

Las implicaciones de la entrada en vigor de la citada directiva tienen un alcance editorial indirecto. Como también nos cuentan en Actualidad Editorial:

La duda es cómo van a afrontar este cambio los pequeños minoristas y las editoriales y autores que practican la venta directa. A partir del 1 de enero van a tener que enfrentarse a la obligación de aplicar diferentes tasas de IVA y de hacer cobros en diferentes países.

Los que se benefician de la nueva directiva son los grandes grupos editoriales para los cuales atender un nuevo requisito administrativo no es ningún desafío. Para “facilitar” la vida a los pequeñuelos se ha establecido una especie de ventanilla única –de incierto funcionamiento– en la cual pueden darse de alta todos los actores del libro que lo necesiten, de forma que no tengan que tramitar cada transacción en cada país diferente. En la Agencia Tributaria tienen a bien informar de las reglas del invento.

Falta de equidad y lesión a la competencia

La medida carga en los empresarios un problema causado por regulaciones supranacionales. Se falta a la equidad privilegiando a los grandes por encima del resto y se lesiona la competencia. Hay formas más eficientes de solucionar el desaguisado del IVA de los libros y la tributación entre Estados de la UE:

  • Atender a la naturaleza de uso de los productos, no a su naturaleza tecnológica, distinguiendo entre el archivo descargable que se lee como un libro de papel, el servicio de lectura en la nube –equiparable a la televisión de pago– y otros servicios mixtos derivados de contenido escrito, como los cursos on-line, que puedan encuadrarse en otras categorías.
  • Equiparar el IVA de los libros de papel y digitales. Los viejos del lugar ya saben que mi opinión es que el IVA de todos los libros debe ser al tipo normal, no al reducido –un IVA al 21% es un dislate pero ese es otro tema. En su defecto lo más importante es que tengan el mismo tipo y el reducido sería un mal menor.
  • Poner en manos de los Estados un mecanismo compensatorio posterior a la tributación del IVA. La tecnología ya permite imputar de forma directa a quién le corresponde pagar cuánto, dónde y a qué agencia tributaria. Es mucho más eficiente centralizar dicha labor en veintitantos Estados que en miles o decenas de miles de empresas, de forma que se igualen las reglas de la competencia. No se requiere inventar la rueda: en cuestiones como la imputación de costes a la atención sanitaria a ciudadanos comunitarios en países de la UE eso ya está solucionado.
  • Hacer cumplir las leyes europeas que países como Luxemburgo se saltan alegremente mediante un IVA aplicado al libro del 3%, fomentando el dumping fiscal de empresas como Amazon, entre otras. En octubre de 2012 la UE dio un plazo de 30 días a Francia y Luxemburgo que no pareció asustar a nadie.
  • Avanzar hacia la unión fiscal europea; este tema escapa al alcance de este blog y sólo lo menciono a título enunciativo.

¡Ah! Y menos mal que en muchos países el precio del libro es fijo, de otro modo el galimatías de la nueva directiva de la UE sería apocalíptico. Como de costumbre se trata de ausencia de voluntad política. Tampoco es que los grandes grupos editoriales estén haciendo nada que modifique el statu quo o, en su caso, están cambiando lo justo para seguir siendo grandes. No espero de ellos otro comportamiento pero que no nos digan que esta nueva directiva les perjudica porque bajo esta perspectiva salen ganando. Como siempre.

¿Congreso del Libro Electrónico o convención de ventas?

Miguel_Ángel_-_Creación_de_Adán- Imagen: Wikipedia -

Mi último artículo suscitó un animado intercambio de pareceres con uno de los aludidos, Luis Magrinyà. De lo comentado con él me quedo con dos cosas: Magrinyà tuvo la sensación que el congreso se pareció demasiado a una convención de ventas –y me animó a hablar de ello– y está convencido que yo escribo mis artículos por darme aires, para promocionarme. Le prometí hablar de lo primero. De lo segundo hablaré porque me apetece.

Estoy de acuerdo con él en la forma pero no en el fondo. Sí, el congreso tuvo momentos de convención de ventas. Sí, uno de los efectos de escribir en este blog es que aumenta mi notoriedad. La diferencia entre su interpretación y la mía es que mientras él mira el dedo, yo prefiero mirar la luna.

Todo congreso que no sea estrictamente académico toma un inevitable cariz comercial. El II Congreso del Libro Electrónico tiene entre sus objetivos conocer mejor el funcionamiento de una nueva industria. Para ello reúne a profesionales y empresarios que hablan de productos y servicios concretos, tanto en el escenario como entre el público, donde muchos aprovechan para hacer networking, tan diferente de lo que yo prefiero llamar “qué hay de lo tuyo” que nada tiene que ver con el clásico hispánico de “qué hay de lo mío”.

Se queja Magrinyà, en un par de tuits, que en cada descanso le intentaron vender algo con algún peregrino argumento (la conversación se dividió en dos hilos, por eso puede parecer algo confusa):

Como dijo Diego Armando Maradona en una célebre campaña contra la droga en los años ochenta: “simplemente, di no”. En un encuentro profesional no podemos evitar que alguien nos intente vender algo; de nosotros depende darle largas con más o menos elegancia.

Un congreso joven, como el de Barbastro, necesita encontrar el punto de equilibrio entre sus componentes tecnológico, industrial y comercial. Montar un certamen como éste no sale gratis. El hecho de hacerlo en una modesta localidad oscense ya es casi un milagro; si hace cinco años alguien me hubiera dicho que se consolidaría un congreso sobre el libro digital en Barbastro le hubiera pedido un poco de la sustancia que tomaba.

Eso impone peajes políticos y comerciales. La primera hora del jueves estuvo dedicada al discurso, a mi parecer anodino, de un repertorio de representantes institucionales locales y provinciales. Lo entiendo y lo acepto –aunque no lo justifique– porque para que ciertas cosas sean posibles hay que dejar que algunos salgan en la foto. Si con esa hora perdida aseguramos la prosperidad del congreso –y la de la gente de Barbastro– me doy por compensado.

Hubo algunas ponencias y charlas descaradamente comerciales a las que sólo les faltó añadir “espacio comercial patrocinado” como en el caso de “Experiencias de autoedición” presentada por Koro Castellano, directora de Kindle para España y Portugal. Lo cierto es que la posterior charla de los escritores fue interesante. En este caso entiendo, acepto e incluso justifico el formato. El apoyo de Amazon es determinante para el sostén del congreso y eso tiene contrapartidas. Yo preferiría que los patrocinadores fueran otros pero esto es lo que hay.

Hubo también espacio para la promoción de start-up o nuevas empresas del sector que venían al congreso con un ánimo comercial indisimulado. Cada una dispuso de sus siete minutos de gloria la tarde del jueves y de mesas en el vestíbulo en las que atender a los interesados en sus servicios. Me consta que les compensó acudir al congreso y opino que lo que nos contaron fue, en general, interesante.

Resumiendo: sí, el II Congreso del Libro Electrónico se pareció un poco a una convención de ventas pero un encuentro profesional debe tener un elemento comercial bien engrasado. Mejorable, sin duda, con mucho más recorrido, espero, pero no podemos perder de vista que sólo se han celebrado dos ediciones del congreso. Démosle un poco más de cuerda.

El blog y la autopromoción

Hasta aquí las cosas serias. Ahora voy a hablar de este blog y de la notoriedad. Luís Magrinyà me acusó de buscarme enemigos para promocionarme a mí y a mi blog. Esa es una inversión de los términos. Ya he dicho algunas veces que abrí este blog para aprender y que dejaré de escribir en él cuando ya no cumpla esa función. Yo aprendo cuando escribo porque saco las ideas a pasear. Muchos artículos han empezado en un sentido y han terminado en otro muy distinto porque su fase de documentación ha señalado que ciertas hipótesis eran incorrectas. Me he equivocado más veces de las que he acertado en los diagnósticos a futuro. Para mí el blog es, en primer lugar, una herramienta de aprendizaje.

Es inevitable que esta exposición pública suscite cierto interés. El primer año y medio de vida este blog atraía escasa atención. Si mi única intención hubiera sido publicitaria lo hubiera cerrado hace ya tiempo sin llegar nunca a las actuales 244 publicaciones.

Abrí este blog en junio de 2010 y, en términos de marca personal y notoriedad sólo comenzó a ser rentable a principios de 2013, cuando empezaron a llamarme para participar en charlas y mesas redondas.

Todo esto que parece una excusatio non petita tiene como objeto señalar que todavía son muchos los que, provenientes de una concepción clásica de Alta Cultura, consideran unos arribistas a todos los que no hemos sido ungidos por instancias académicas o institucionales. Cuando Luís Magrinyà me tilda de publicista de mi ego da a entender que toda su carrera editorial, literaria y lexicográfica ha transcurrido en un monacal y anónimo aislamiento. Obviamente no es cierto, ha ganado algún que otro premio literario como el Herralde (2000), el Otras Voces, Otros Ámbitos (2011), escribe regularmente en El País y le invitan a charlas y conferencias. Su presencia en medios es notoria, debemos suponer que es merecida y dudo que nadie se lo haya reprochado.

A él le pagan por escribir, a mí no. Puede que, para él, la diferencia sea esa. Puede que, para él, la palabra sólo tenga valor si alguien es capaz de pagar un precio al margen de los lectores que uno tenga. Puede que, para él, la única forma de saber si la palabra tiene valor es el reconocimiento de aquellos a quien admira. Muchos nos conformamos con apreciar las opiniones y conocimientos no tanto por sus padrinos como por su contenido. Muchos ya no necesitamos Academia, Canon Occidental ni Alta Cultura para andar por las ideas pero valoramos su utilidad para entender de dónde venimos.

Vivimos en un mundo más desordenado pero también mucho más interesante, fluido y fecundo que el del pasado. Somos cada vez más los que nos atrevemos a decir y argumentar que ciertos discursos son vacuos, obsoletos e inútiles para comprender lo que está sucediendo; el prestigio, los galones o la hoja de servicios ya no pueden ser baremos que impongan respeto intelectual.

Dejemos atrás la potestas, el poder otorgado desde arriba y abracemos la auctoritas, la autoridad moral e intelectual que proviene de la aprobación del público, venga de donde venga, sea de arriba, de abajo o entre iguales, se trate de masas o de minorías, paguen o no por nuestras palabras. Todos tenemos algo que decir que debe ser respetado y puede ser criticado o ignorado. Los argumentos deben bastar para entendernos. Hagamos buen uso de ellos sin timidez.

El día que el espíritu de Lampedusa voló sobre el II Congreso del Libro Electrónico

DOMINÓ- Foto: rodaje de Dominó, la película -

 -

“Si queremos que todo siga como está, necesitamos que todo cambie”

Don Tancredo en El Gatopardo

Giuseppe Tomasi di Lampedusa

 -

Los días 30 y 31 de octubre tuvo lugar el II Congreso del Libro Electrónico en Barbastro, un encuentro cada vez más necesario que ya empieza a consolidarse. Más de cuarenta ponentes trataron algunos de los aspectos más importantes del libro digital. Al congreso le queda mucho por mejorar pero, con sólo dos ediciones, goza de una salud intelectual envidiable en comparación con otros tinglados treintañeros.

No tengo intención de resumir lo sucedido en dos días de congreso –les recomiendo el resumen de Darío Pescador– pero sí de glosar la sensación que me dejó la primera charla titulada “El papel de los editores en el nuevo ecosistema digital”. Moderada por Claudio López de Lamadrid (director editorial de Penguin Random House) y con la presencia de Luís Magrinyà (director de la colección de clásicos de Alba Editorial) y Paula Canal (editora y responsable del desarrollo digital de Anagrama) fue el marco adecuado a todo lo que sucedió posteriormente.

A los presentes en el salón de actos del congreso les sorprenderá que tilde la decepcionante partida de dominó con los amigotes del bar como de marco adecuado; decepcionó ver tanta oscuridad argumental. A Paula Canal parecía no importarle mucho lo digital –así es como se toma estas cosas Jorge Herralde– mientras que Luís Magrinyà pergeñaba un disperso discurso en defensa de lo de siempre que empezó criticando la palabra ecosistema porque le recordaba al Serengueti. Claudio López empezó hablando de metadatos –a estas alturas es como hablar de la viscosidad de la tinta– y no quiso ensuciarse las manos con la realidad despachando sendas preguntas del público con un lacónico “esto lo llevan en otro departamento de Penguin Random House” muy alejado de la estructura de la gran mayoría de editoriales de nuestro país.

Supongo que Fernando García Mongay no esperaba tan decepcionante resultado aunque, a decir verdad, el coloquio funcionó en un sentido todavía más inesperado: demostró que los más rezagados en la digitalización del libro son los editores y que todos los demás –incluso los libreros– tienen alguna idea de qué hacer en el futuro próximo. Desde ese prisma vi y entendí el resto de un congreso que fue de menos a más y terminó con un inspirador cierre de José Antonio Millán.

El incomprendido Don Tancredo

Cuando alguien del público reprochó a Claudio López, Paula Canal y Luís Magrinyà su negligente actitud ellos alegaron que les habían convocado como editores de papel. Fuimos muchos los que releímos el título de la charla por si nos habíamos equivocado; no era el caso, obviamente. Me sorprendió la alusión a los editores de papel, como si lo importante en la edición no fuera el contenido, sino el soporte. Bonita empanada mental la de aquellos que creen que lo importante está fuera del contenido y de su destinatario, el lector.

¿Son representativos estos tres editores? Sí y no. Lo son porque responden al arquetipo de editor asustadizo y paralizado por lo nuevo. No lo son porque cada vez más profesionales se atreven a experimentar; lo ilustraremos con un dato: esa misma tarde Blanca Rosa Roca sorprendió a todos cuando dijo que en 2013 el 16% de su facturación fue digital y que este año va camino del 28% ¿magia negra? ¿vudú? ¿venta de almas? No, mucho más sencillo: en Roca Editorial hace mucho tiempo que se lo creyeron, empezaron a experimentar y han picado mucha piedra. A la vista están los resultados.

“Si queremos que todo siga igual, necesitamos que todo cambie”, aseguraba Don Tancredo a su tío Fabrizio. Si Roca Editorial ha avanzado tanto en facturación digital es porque han cambiado muchas cosas para que lo esencial –el valor añadido que el editor aporta a un buen libro– cambie lo menos posible.

Claudio López, Luís Magrinyà y Paula Canal parecen entenderlo al revés, parecen pedir que el mundo no cambie y que un entorno en constante evolución les permita vivir en su excepción cultural afrancesada y particular, en un museo de cera de artes y oficios. La suya es la actitud corriente de indignación ante Internet, los fabricantes de dispositivos, la enorme oferta de contenidos y la piratería, ese santo y seña, esa excusa para tanta inacción. Nada me gustaría más que vivir en un mundo en el que el libro no tuviera que cambiar –uno de mis mayores placeres es la lectura profunda de un buen libro– pero cualquier postura intelectual que consista en el encastillamiento es tan estéril como estúpida.

Si de veras creemos en el papel del editor y de la editorial en el actual ecosistema del libro, si estamos seguros que esta vieja figura tiene futuro, deberemos cambiar todo lo accesorio. Hay que reforzar el eje editor-contenido-lector cambiando lo adecuado y equivocándonos lo menos posible. No importa el soporte, ni los criterios tipográficos deudores de la tinta y el papel, ni las lógicas comerciales analógicas, ni los autores y agentes que se resistan a la digitalización, ni la piratería: importa que buenos editores sepan ofrecer buenos contenidos a sus clientes. Eso implica un montón de cambios de los que hablaremos otro día.

El Observatorio Internacional del Libro de Barcelona y la comunicación sobre la nada

PAYASO DESENFOCADO-

Acaba de anunciarse la creación del Observatorio Internacional del Libro de Barcelona al abrigo del Máster en Edición de UPF – IDEC. Es una buena noticia. Toda aquella institución que contribuya a aportar luz sobre el espeso, opaco y nebuloso circo del libro debe ser bienvenida. Debemos apoyar en lo posible su andadura pero, ojo, eso también significa meter el dedo en las llagas con las que nace el proyecto.

Habitualmente quien se comunica poco –y mal– aduce que comunica lo que cree necesario –lo que le da la gana– y culpa al receptor del mensaje de los posibles malentendidos. Es el estilo de comunicación de aquellos que todavía consideran que hay unos creadores de tendencia que están arriba y unos seguidores de tendencia que están abajo y que nunca intercambiarán posiciones. Ancient Régime cultural, para entendernos.

Cuando alguien dice que acaba de crear algo del calibre del Observatorio Internacional del Libro de Barcelona adquiere un gran compromiso consigo mismo y con aquellos a quien la cosa más les puede interesar. Por criterios de espacio y premura la noticia de la creación del Observatorio en los medios convencionales contiene poca información. Lo que uno espera es que al ir a la fuente pueda ampliar detalles y saber mejor de qué va el asunto. Error.

Si saltamos de la noticia de La Vanguardia, El Periódico o El Cultural a la web del Observatorio encontramos menos información, no más. Raro. Al parecer dichos medios –y supongo que unos cuantos elegidos más– recibieron un comunicado en el que Sergio Vila-Sanjuán y Javier Aparicio contaban más cosas –aunque no muchas más– que las que aparecen en la propia web del Observatorio o sólo recibieron la noticia que aparece en la web de la UPF – IDEC y la publicaron con más o menos aliño. Veamos algunos interesantes pasajes de la mencionada noticia:

La Universidad Pompeu Fabra, a través de su Máster en Edición en el UPF-IDEC, que cumple este curso su XX aniversario, ha creado el Observatorio Internacional del Libro de Barcelona, una idea del periodista cultural Sergio Vila-Sanjuán e impulsada conjuntamente con el fundador y director del Máster en Edición, Javier Aparicio Maydeu.

Es una buena idea de un buen periodista cultural como Sergio Vila-Sanjuán impulsada por una figura de renombre como Javier Aparicio en el marco de uno de los mejores masters en edición. Y hasta aquí la noticia, porque lo que viene a continuación o bien es relleno o bien es vacío. Tras decirnos que en el Observatorio se encuentra lo mejor de cada casa…

[…] cuenta con el apoyo y colaboración de todo el sector editorial español, desde el Grupo Planeta, Anagrama, Penguin Random House, Grupo 62, Google, Círculo de Lectores, el gremio de editores de Cataluña, la feria del Libro de Frankfurt o CEDRO, entre muchos otros.

…nos dice algo así:

‘Este nuevo organismo académico e independiente nace con el objetivo de analizar los principales retos del sector editorial tratando de contribuir a impulsar la industria del libro y de la edición’, explica Javier Aparicio.

Hombre señor Aparicio, independiente no. Con todo el santoral industrial y comercial detrás usted no puede hablar de independencia. No dudo que todos estos miembros estarán muy interesados en contribuir en impulsar la industria del libro y de la edición, pero lo harán bajo un prisma industrial y comercial tan lícito como sesgado. Por cierto, de los nueve representantes del sector, cuatro son Grupo Planeta; sé que la cosa suena más epatante para el vulgo lector de prensa generalista pero suena todavía menos independiente para los pobres diablos que rascamos un poco. De los “muchos otros” hablaremos en breves líneas.

Tras contarnos que el Observatorio recopilará toda la información que se está generando tanto a nivel local como global acerca del mundo del libro –¿están seguros de haber calculado bien el volumen?– nos dicen lo siguiente:

El Observatorio tendrá presente tanto los factores empresariales del mundo editorial como su posición en el campo del conocimiento, los puntos de investigación “cutting edge” y la relación con las instituciones sociales y políticas.

¿Cutting edge? Disculpen, ya sé que es anecdótico pero ¿no les gustaba la palabra innovador o vanguardista? ¡Coño, que estamos hablando de cultura, de foco de la edición en lengua castellana y blablablá!

No nos ofusquemos. Una de las vías en las que va a trabajar el Observatorio será ésta:

Estar en permanente relación con las instituciones barcelonesas, catalanas, españolas y europeas para contribuir a transmitirles la importancia estratégica del sector y de la ciudad de Barcelona como capital editorial, y asimismo analizar nuevas orientaciones y estrategias que seguir.

Caramba ¿Ya no les sirven la FGEE, los gremios y las cámaras del libro para desempeñar esa función? ¿Además de tener que hablar con toda la actual colección de instituciones deberán entenderse con el Observatorio? Lo digo porque si el Grupo Planeta y Penguin Random House –entre muchos otros– ya cortan el bacalao en los chiringuitos existentes no creo que necesiten otro altavoz.

Hasta aquí la noticia oficial de la UPF – IDEC que no cuenta más de lo que contaban los periódicos. ¿Hay algo más en la web del Observatorio? Pues no. Algunos ejemplos:

  • En qué es y qué hace el Observatorio nos cuentan lo mismo que en la noticia sin las opiniones entrecomilladas de sus impulsores que sí aparecen en prensa.
  • En quiénes somos sólo aparecen los ya mencionados impulsores de la idea junto a indeterminados “profesionales del sector editorial, académicos y analistas” a quienes sus progenitores no tuvieron a bien darles un nombre al nacer. O puede que ni siquiera hayan sido reclutados.
  • En el apartado Actividades nos cuentan que “esta información estará disponible próximamente”.

Sólo hay algo que añadir pero no de la UPF – IDEC sino de El Cultural, concretamente del primer párrafo de la noticia:

La Universidad Pompeu Fabra, a través de su Máster en Edición, que cumple este curso su XX aniversario, pondrá en marcha a partir del mes de junio el Observatorio Internacional del Libro de Barcelona

Cuando leí lo del mes de junio fui a revisar la fecha del artículo; la noticia es fresca, de ayer mismo ¡Se refieren a junio de 2015! ¡Están anunciando con más de ocho meses de antelación la puesta en marcha de algo que al parecer sólo cuenta con el nombre! Lo más incomprensible es que esta noticia ni siquiera les sirve para promocionar el Máster pues la presente edición empezó el pasado septiembre y no termina hasta el próximo julio.

Sigo pensando que la creación del Observatorio es una buena noticia. Puede aportar algo nuevo al debate. Sus impulsores tienen carrera y prestigio suficientes, pueden reunir en torno a ellos un buen equipo. Por eso es una lástima su comienzo lastimoso, vacío, cojo, triste, decepcionante, nebuloso. Con una antelación injustificada que suena más a postureo que a realidad. Ya tenemos suficientes payasos en este circo ¡Cómo espero equivocarme!

Las once malditas páginas de Gregorio Morán y los 28 millones de dólares de la Edición Soviética

BREZNEV-

Durante la Guerra Fría una legión de kremlinólogos se dedicaba a interpretar la poca información que salía del Kremlin para deducir quien había caído en desgracia, cómo iba la economía real soviética –tan diferente de la propaganda oficial– o los movimientos del Ejército Rojo. El nombramiento de alguien para un cargo o su presencia –o ausencia– en una foto o un desfile a menudo bastaba para conocer la salud interna del régimen.

Una característica común de dictaduras herméticas y empresas familiares es que cuando se hunden lo hacen ante la sorpresa de casi todos. Si muy pocos kremlinólogos supieron adelantar el derrumbe de la Unión Soviética a finales de los años ochenta del pasado siglo, muy pocos deben saber, fuera de Planeta, lo que sucede en la sede de la Avenida Diagonal de Barcelona. No digo que esté a punto de hundirse –ni siquiera soy planetólogo– pero los que estamos fuera del sistema planetario apenas disponemos de algunas anécdotas para entender lo que pasa.

El último chascarrillo con el que todavía se divierte la chiquillada ha sido la edición frustrada de El cura y los mandarines, libro en el que Gregorio Morán ha vertido diez años de su vida, diez años que, conociendo la trayectoria del autor y su mordacidad sabatina en el diario La Vanguardia, dan para mucho. Hace pocos meses apareció Aquellos años del boom, del también periodista de La Vanguardia Xavi Ayén, una auténtica catedral edificada, ésta también, durante diez años.

Detengámonos un momento en este detalle. Dos periodistas de La Vanguardia de generaciones distintas –Morán de 1947, Ayén de 1969– deciden dedicar los últimos diez años –casi los mismos últimos diez años– a escribir dos catedrales de la cultura española y por inevitable extensión, iberoamericana. Ambos libros repasan similares períodos históricos. Sabemos que Morán pone a caldo a un buen número de jerarcas de la cultura mientras que Ayén también lo hace pero con diferente estilo y sin entrar al trapo con ciertas instituciones porque el tema que trata no lo exige. El libro de Ayén, editado por RBA, sale a la luz. El de Morán, editado por Planeta, no. La cara y la cruz de la cultura del país.

Que un diario como La Vanguardia tenga en nómina a dos autores de este calibre y haya tirado por la borda el periodismo de calidad que en su día practicaba es algo que dejo a la comprensión de generaciones venideras que lo verán todo con más perspectiva. Las mismas generaciones entenderán mucho mejor que nosotros lo que está sucediendo en Planeta.

Del caso de las once malditas páginas de Morán sorprenden varias cosas y la primera es una triste ironía: el autor que investigó durante diez años los entresijos de la cultura española no supo ver a tiempo que Planeta había cambiado lo suficiente como para no atreverse a lanzar su libro. Sangrante pero comprensible; los más cercanos a ciertas realidades son los últimos en percatarse de los cambios porque ven su evolución y no perciben las grandes variaciones a lo largo del tiempo.

Si la mencionada paradoja no empequeñece al periodista hay una serie de cuestiones técnicas que sí dejan a Planeta –en su caso a Crítica, el sello en el que recaló el libro–en mal lugar. Cuando un autor con el historial y la reputación de Gregorio Morán te dice que va a escribir acerca del sistema cultural español ya sabes a qué atenerte. Cierto que la propuesta fue anterior a 2004, que en esa época el Grupo Planeta nadaba en una cada vez más apalancada abundancia, que cuando uno está que se sale se atreve con todo –como se atrevió el patriarca Lara a publicarle a Morán una biografía no autorizada de Adolfo Suárez en 1979– pero se supone que uno cuenta con los arrestos suficientes para afrontar unas consecuencias inasumibles para la mayoría de editoriales independientes.

Por si un ataque de amnesia colectiva hubiera hecho olvidar a todo el mundo quién es y de qué va Gregorio Morán, en Planeta disponen de una legión de abogados dispuestos a encontrar el más remoto riesgo de demanda; eso suele hacerse antes de hincarle la edición al manuscrito para no tirar el dinero tontamente. Parece que la cosa no fue así, tal como el propio Morán contaba en la última de sus Sabatinas Intempestivas de La Vanguardia (edición del sábado 18 de octubre de 2014) :

Después de […] corregir lo que en términos de edición se denominan “primeras pruebas”, incluso unas “segundas”, tras sortear las variadas y hasta divertidas objeciones del llamado pomposamente “departamento jurídico”, que al menos en mi caso se refiere a un individuo que responde al nombre de Gabino Sintes, que para mayor singularidad se ocupa también de los “derechos de autor”, lo que a mi entender debería llenarnos de inquietud -censor y defensor de los derechos del escritor, diría que son incompatibles-. […]

La edición siguió su curso con una hermosa portada que imprimió primorosamente y a la que acompañaba un texto que por no ser mío sino de la casa editora merece la pena ser copiado. […]

Meses tirando los sueldos del editor de mesa, del departamento jurídico-censor, los honorarios del corrector, del maquetador, los gastos de la impresión de la cubierta –a saber si de la primera tirada completa– y habiendo perdido un anticipo que se me antoja jugoso; meses durante los cuales alguien aprendió la papiroflexia que justificara la genuflexia ante la RAE. Todo, para terminar con un efecto Streisand que ni siquiera el ya decrépito Premio Planeta ha podido tapar.

¿Sale a cuenta tamaño desaguisado? Juzguen ustedes en lo económico: Planeta imprimirá y venderá 400.000 ejemplares de papel –con una primera tirada de 50.000– del nuevo diccionario de la RAE ¡en pleno 2014! Si el precio mínimo de cada diccionario son los 70 $ de la edición latinoamericana –en España vamos a pagar 99 € que al cambio es casi el doble– se trata de una facturación de más de 28.000.000 $, a cuarto de millón cada una de las once malditas páginas de la obra de Morán. Tal como comenta el autor en una entrevista concedida a El Confidencial:

Le escribí una carta [a Lara] porque nos conocemos desde hace mucho tiempo. Le planteé cómo era posible que hace 35 años hubieran sido capaces de publicarme un libro muy crítico con un Presidente del Gobierno en ejercicio [Adolfo Suárez. Historia de una ambición, Planeta, 1979] y ahora no quieran publicarme un libro por 11 páginas dedicadas a la RAE. Es decir, un deterioro informativo importante. Me contestó que no era miedo a García de la Concha, pero que era un colaborador eficacísimo de la editorial, y añadió: el problema de tu libro son las 11 malditas páginas. […]

No estaría mal que el Grupo Planeta editara un diccionario de Colaboradores Eficacísimos de la Editorial, algo así como un Índex Collaboratorum Prohibitorum para saber qué juanetes nunca hay que pisar; seguidamente el Grupo implosionaría dejando un rescoldo editorial de autoayuda y superación, esos que nunca dan problemas porque lo ven siempre todo en rosa.

Si la operación es económicamente impecable –sacrificar un ladrillo que leerán cuatro enfermos como el que suscribe a cambio de más de 28 millones de dólares– el rendimiento en prestigio, imagen y credibilidad arroja un saldo negativo del que creo que Planeta no se recuperará. Sí, Planeta ha cometido fechorías similares en el pasado, pero es que los tiempos han cambiado y una buena prueba está en el sacrificio de un autor como Gregorio Morán por una bolsa de monedas. Hace diez años de esto nos enterábamos el puñado de lectores de la sección de cultura de los periódicos; hoy se entera incluso aquél a quien el tema le importa un pito. Hace diez años Planeta enjuagaba este desastre de imagen con una ofensiva publicitaria y de relaciones públicas; hoy no queda dinero para eso.

Planeta se ha expuesto a una crisis de credibilidad por unas decenas de millones de dólares; comparado con la facturación del grupo, una nimiedad. En relación con la facturación –y las pérdidas– del negocio editorial, muy significativo. Están empezando a rebañar el fondo del barril, un barril grande, que da para mucho, pero que empieza a quedarse seco. Cuando una llamada de uno de tus eficacísimos colaboradores se interpone en el negocio y vale millones de dólares es que ha empezado el principio del fin de la Edición Soviética. Un fin que se atisba largo y doloroso.

Toda la vergüenza que está pasando Planeta no impedirá que el libro vea la luz. Si todo va como está previsto será Akal quien edite el libro y lo lance a finales de este año o principios de 2015. El eslogan que yo usaría se lo han servido en bandeja: el libro de Gregorio Morán que Planeta censuró. Unos lo leerán por morbo. Otros, los de siempre, lo leeremos porque será un buen libro. No debería ser necesario mucho más para editar un libro: que alguien con criterio crea que es bueno y merece ver la luz. Que la fortuna nos conserve por mucho tiempo lo que queda de la editorial Crítica, castigado sello que no merecía este bochorno.  movie Jungle Street (1961)Bonus Track 1: les recomiendo que pasen y lean La Mala Puta, lo que la Patrulla de Salvación escribió hace poco sobre el asunto.

Bonus Track 2: no se pierdan la intervención de Gregorio Morán en la charla “Sobre las nuevas formas de censura” acaecido en la librería Taifa de Barcelona el pasado martes. Vídeo gentileza de Valor de Cambio: https://www.youtube.com/watch?v=ndytT6CCBn4