Regular el lenguaje es difícil incluso en las mejores condiciones y la Internet está lejos de ser la mejor. Su amalgama de sistemas de regulación por parte de entidades privadas no satisface a nadie; sin embargo, es probable que perdure en un futuro previsible.
A modo de explicación, considere un caso en el que la autoridad (en su mayoría) está centralizada y el ambiente (en su mayoría) está controlado: el mío. Soy profesor, y si un estudiante habitualmente hiciera comentarios ofensivos en clase, me reuniría con esa persona e intentaría persuadirla para que desistiera. (Para que quede constancia, esto nunca me ha pasado). Si el estudiante continuara con esa conducta, en algún momento trataría de prohibirle la entrada a mi clase, con el apoyo de mi universidad.
Sin embargo, esta solución no es tan sencilla como parece. Tal vez sea bueno si confía en mi criterio, pero no es fácilmente escalable. Solo funciona porque tales incidentes son muy raros. No puedo ser eficaz en mi trabajo si debo dedicar mi tiempo a regular y tratar de modificar el lenguaje de mis estudiantes.
Y este enfoque se vuelve más difícil de manejar cuando es adoptado por las plataformas de Internet. Patreon es un sitio de financiamiento colectivo que se ha comprometido a persuadir y reformar a los usuarios que buscan patrocinadores y que participan en lo que considera un comportamiento ofensivo. Si esos usuarios no se alinean, como lo definen los estándares de Patreon, este sitio los censurará.
Sin embargo, los intrusos (y algunos usuarios) nunca confiarán lo suficiente en el criterio de la compañía, ya sea que Patreon tenga buen juicio o no. Además, los procesos de juicio de la empresa son difíciles de escalar, ya que se requiere una intervención personal en cada caso y, en algún momento, las decisiones serán burocráticas.
Con el tiempo, las disputas sobre usuarios prohibidos y autorizados distraerán a Patreon de su función principal de ayudar a las personas a recaudar dinero a través de Internet.
Un enfoque alternativo es simplemente dejar que cualquiera use la plataforma y no involucrarse en la regulación del lenguaje o de los usuarios. Hace unos años, la regulación privada era un problema mucho más pequeño que hoy, incluso si el material extremadamente ofensivo publicado en Facebook o YouTube a menudo provocaba una orden de eliminación.
El problema con estos sistemas es que eran demasiado hospitalarios para los actores con malas intenciones. El Gobierno ruso, por ejemplo, usó múltiples plataformas de Internet para tratar de influir en las elecciones presidenciales de EE.UU. en el 2016. Concuerdo con Nate Silver en que tales esfuerzos no tuvieron una influencia significativa sobre el resultado final, pero ese no es el punto.
Si las plataformas se consideran hospitalarias para personas malintencionadas, incluidos los enemigos de Estados Unidos y la democracia, esas plataformas comenzarán a perder su legitimidad ante el público y sus representantes electos.
Un enfoque alternativo es que las compañías de plataformas regulen por algoritmo. Por ejemplo, si una publicación se refiere a nazis y usa términos despectivos para los judíos, el algoritmo podría prohibir esas publicaciones en forma automática. Puede que funcione bien al principio, pero eventualmente los carteles ofensivos descubrirán cómo burlar los algoritmos.
Luego está el problema de los falsos positivos: publicaciones que el algoritmo identifica como ofensivas, pero no lo son. El resultado es que el juicio humano seguirá siendo un complemento crucial para cualquier algoritmo, que tendrá que ajustarse con regularidad.
A medida que estos procesos evolucionen, cada plataforma de Internet no será coherente o justa entre sus muchos usuarios, ya que algunos eludirán las consecuencias de ser ofensivos o peligrosos, mientras que otros pueden ser censurados o expulsados por razones insuficientes.
Desde hace poco, Facebook ha dedicado muchos recursos a la regulación del lenguaje en su plataforma. Sin embargo, los usos no deseados de la plataforma apenas han desaparecido, especialmente fuera de EE.UU.
Además, la necesidad del juicio humano hace que los algoritmos sean cada vez más costosos y difíciles de escalar. A medida que Facebook crece y se extiende a más regiones e idiomas, se vuelve más difícil encontrar personas capaces de aplicar lo que Facebook considera que son los estándares adecuados.
Me gustaría sugerir un simple trilema. Cuando se trata de plataformas privadas y regulación del lenguaje, puede elegir dos de tres opciones: escalabilidad, efectividad y consistencia. No puede tener las tres. Además, este trilema sugiere que nosotros, ya sea como usuarios, ciudadanos o incluso administradores de las plataformas en sí, nunca estaremos contentos con la forma en que se regula el lenguaje en Internet.
Un punto de vista, que puede parecer cínico, es que vale la pena tener plataformas, por lo que deberían apaciguarnos al menos tratando de regular con eficacia, aunque ambos sabemos que realmente no tendrán éxito.
Para el 2019, no veo una mejor solución. Otro punto de vista es que estaríamos mejor con la situación de hace unos años, cuando la regulación del lenguaje en las plataformas no era un problema tan grande. Después de todo, los estadounidenses no nos volvemos locos cuando nos enteramos de que Amazon vende copias del libro "Mein Kampf".
El problema es que una vez que se aprende sobre lo que no se puede tener -la regulación del lenguaje que es escalable, coherente y hostil para los agentes malintencionados- es difícil acostumbrarse a ese hecho. En el futuro, es probable que veamos a las compañías de plataformas esforzándose cada vez más y sus críticos se vuelvan cada vez más fuertes.
Por Tyler Cowen