1 / 7
Contenidos vistos este mes
Disfrute de contenido ilimitado sin costo
¿Ya tiene una cuenta? Ingrese
Ya completó los artículos del mes.
Sabemos que le gusta estar informado Disfrute de acceso ilimitado al contenido, boletines noticiosos y más beneficios sin costo.
¿Ya tiene una cuenta? Ingrese Volver a la portada

Tendencias

¿Hay alguna alternativa viable a Facebook?

Las dificultades de dejar hoy en día una plataforma social con 2.000 millones de usuarios son diversos y hacen muy difícil esa posibilidad.

Mark Zuckerberg

Mark Zuckerberg, fundador de Facebook, fue citado tanto por el Congreso de Estados Unidos como por el gobierno del Reino Unido.

EFE

POR:
Portafolio
abril 27 de 2018 - 07:35 p.m.
2018-04-27

El testimonio de Mark Zuckerberg ante el Senado de Estados Unidos hizo poco para aplacar a los usuarios enojados que estaban preguntándose si deberían eliminar su cuenta de Facebook (#DeleteFacebook). Pero, ¿a dónde puedes ir cuando abandonas una plataforma social con 2.000 millones de usuarios, cerca de un tercio de la población mundial?

Aunque un amigo mío optó por retirarse totalmente de las redes sociales, la mayoría de las personas no están listas para dejar el hábito por completo. Los niños conocedores abandonaron a Facebook para usar Instagram y WhatsApp hace un tiempo, pero como ambos son propiedad de Facebook, no parecen una alternativa genuina para aquellos preocupados por el alcance de Zuckerberg en sus vidas.

(Ahora sí: Facebook se toma en serio la lucha contra las noticias falsas). 

Una experiencia de redes sociales verdaderamente diferente probablemente requiera un modelo comercial diferente. Como ahora sabemos: si el servicio es gratuito, no eres el cliente sino el producto. Twitter, Snapchat y otros operan con el mismo modelo publicitario que Facebook y son vulnerables a los mismos problemas.

Para asegurarnos de que nuestros datos no se estén recolectando, es posible que tengamos que pagar por el uso de las redes sociales. ¿Así que cuáles son nuestras opciones?

Vero se lanzó como competidor de Instagram en 2015, ganando tracción con los usuarios que preferían que las publicaciones aparecieran en orden cronológico en su suministro de noticias en lugar de ser ordenadas por un algoritmo. A principios de este año, el número de usuarios incrementó de 200.000 a más de cuatro millones, muchos de los cuales habían dejado a Instagram.

El fundador Ayman Hariri ha dicho que un modelo de pago asegurará a los clientes que ellos, no los anunciantes, están a cargo. Ya que Hariri es el hijo multimillonario del fallecido primer ministro libanés, probablemente tiene más posibilidades para experimentar con este modelo que otros empresarios.

Idka, con sede en Suecia, es otra opción basada en suscripción. Esta plataforma se lanzó justo antes de que se revelara la historia de Cambridge Analytica y ha visto un gran interés en las últimas semanas. Goran Wagstrom, director Ejecutivo, dice: “De repente, hemos tenido visitantes de diferentes países, especialmente de EE. UU.”. El dice que los clientes pasan tiempo leyendo cuidadosamente los términos y condiciones, examinando la promesa de Idka de privacidad absoluta de los datos. Los precios Idka comienzan en 2 euros al mes.

Pero si pagar por usar redes sociales es desagradable, ¿qué tal un modelo que les paga a los usuarios cuando publican? Steemit les paga a los usuarios en una criptomoneda llamada Steem cuando producen contenido. Se puede comercializar en los mercados de blockchain (cadena de bloques) por moneda convencional y tiene un valor de alrededor de US$3 por unidad. La compañía dice que ha pagado US$22,7 millones a los usuarios desde junio de 2016.

Con 13 millones de visitas únicas en enero, la plataforma no tiene anuncios. “Sería bueno si pudiéramos mantenerlo así”, asegura el cofundador Ned Scott. Sin embargo, el modelo de blockchain no probado puede preocuparles a algunos usuarios, y el contenido del sitio es muy específico.

Las tres plataformas son todavía pequeñas y necesitarán crecer rápidamente para sobrevivir; una plataforma social sólo funciona si tus amigos están allí. Un número fundamental de usuarios es 100 millones. Facebook tardó cuatro años en alcanzar esa cifra. Incluso sitios brevemente populares como MySpace alcanzaron un máximo de 100 millones.

A Facebook no le preocupa tener competencia; en su testimonio en el Senado, Zuckerberg no pudo nombrar ni siquiera a un competidor. Después de todo, los rivales de Facebook han intentado competir y han fracasado a lo largo de los años. ¿Recuerdas a Ello? ¿Secret? ¿Mastodon?

Pero la confianza en Facebook se ha reducido drásticamente, según un estudio reciente del Instituto Ponemon. Tal vez ahora la gente esté lista para probar algo nuevo.

ESFUERZO PARA MEJORAR 

Si son las 9 a.m. y es martes, entonces debe ser hora de hablar sobre los pezones descubiertos, el lenguaje deshumanizante y las entrañas visibles.

El “foro de estándares de contenido" de Facebook, que se lleva a cabo cada dos semanas, es la reunión en la que los altos ejecutivos se juntan para revisar las políticas de la red social para eliminar contenido objetable. El equipo tiene una tarea difícil: decidir qué es y qué no es aceptable en una red de más de 2.000 millones de usuarios de todo el mundo.

Esta semana, Facebook publicó sus políticas en detalle por primera vez, después de haber sido atacada por múltiples lados sobre el contenido ha permitido –y que no ha permitido– en su sitio.

Desde la crítica de la ONU de que Facebook jugó un papel en difundir el discurso de odio en Myanmar durante la crisis de los rohingya, hasta reclamos de políticos conservadores en EE. UU. de que borrar videos de la derecha delata su tendencia liberal, la red social está bajo tal escrutinio que los inversionistas temen que podría suscitar nuevas regulaciones costosas. Los legisladores ya están analizando las prácticas de Facebook que permitieron que los desarrolladores de terceros recolectaran y usaran los datos de los usuarios.

Las 27 páginas de estándares de la comunidad, publicadas el martes, ilustran cómo capacitan a los 15.000 moderadores de la red social para vigilar el sitio.

Las pautas se leen como una lista de la ropa sucia del mundo. Abordan la violencia y el comportamiento delictivo, los problemas de seguridad, incluyendo el acoso y la trata de personas, el contenido ofensivo, la incitación al odio, y la “integridad” y la “autenticidad”, desde spam hasta noticias falsas.

El foro de estándares de contenido liderado por Monika Bickert, una exfiscal del Departamento de Justicia que se convirtió en jefe de gestión de políticas globales de Facebook hace cinco años, reúne a unas 20 personas de diferentes departamentos alrededor de una mesa central en la sede de Menlo Park, California, mientras que otros llaman desde otras oficinas, incluyendo Dublín y Washington.

Los participantes debaten sobre las zonas grises con respecto a cómo se implementan sus políticas.

Revisan qué contenido podría considerarse de interés periodístico y que, por lo tanto, pudiera justificar una exención de algunas reglas. Escuchan las preocupaciones presentadas por grupos externos o moderadores de Facebook. Forman grupos de trabajo para crear nuevas guías.

Y a menudo se equivocan.

En 2016, el equipo de operaciones comunitarias de Facebook eliminó una foto famosa de la guerra de Vietnam, porque mostraba a un niño desnudo huyendo de un ataque de napalm. Recientemente les dijeron a las hermanas Diamond y Silk, blogueras y entusiastas partidarias de Trump, que estaban bajando un video debido a su contenido inseguro, alentando a los políticos republicanos a presionar al fundador de Facebook Mark Zuckerberg sobre la decisión en una audiencia en el Congreso. Zuckerberg dijo que había sido un error.

La compañía señaló el martes que lanzará un proceso de apelación para las personas que sienten que su contenido ha sido eliminado injustamente. Hasta ahora, los usuarios podían apelar si se suspendía su cuenta, página o grupo, pero no con respecto a medidas contra piezas individuales de contenido.

“Normalmente permitimos la publicación de contenido, incluso cuando algunos lo consideran objetable, a menos que la eliminación de ese contenido impida un daño específico”, indican las directrices.

Por ejemplo, una publicación cuenta como una amenaza de violencia que debe eliminarse si el usuario menciona un objetivo y un arma o recompensa, o un objetivo y al menos dos de los tres detalles siguientes: ubicación, calendario y método.

Facebook define una organización de discurso de odio como cualquier asociación de tres o más personas organizadas bajo un nombre, signo o símbolo que tiene una ideología, declaraciones o acciones físicas que atacan a individuos basándose en lo que Facebook llama características protegidas como raza, género u orientación sexual.

Facebook ha aceptado que pasará mucho tiempo hasta que pueda confiar en la inteligencia artificial para vigilar la red. Cuando se descubrieron las operaciones de desinformación rusas en Facebook, la compañía anunció que duplicaría el número de moderadores a 20.000 para fines de este año. Durante su testimonio en el Congreso Zuckerberg dijo que faltaban cinco años para que pudieran lanzar muchas de las herramientas en las que estaban trabajando para detectar contenido problemático.

Pero Bickert resaltó que Facebook podría eliminar algunas imágenes automáticamente, como cuando usa bases de datos que comparte con otras compañías de tecnología para hacer coincidir imágenes de pornografía infantil subidas a la red social.

Facebook anunció el lunes que había eliminado 1,9 millones de piezas de contenido del Estado Islámico y Al Qaeda en los primeros tres meses del año, el doble que el trimestre anterior. Los avances en inteligencia artificial significan que pueden eliminar 99% de este contenido sin necesidad de recibir informes de los usuarios.

Maija Palmer

Compartir