domingo 05 de abril de 2026 - Edición Nº642

Tecnología | 28 ago 2024

El caso cuestiona la responsabilidad de TikTo

Tribunal de Apelaciones de EE.UU. reabre demanda contra TikTok tras muerte por "blackout challenge"

La Corte de Apelaciones del Tercer Circuito ha revocado la decisión inicial que desestimaba la demanda presentada por la madre de Nylah Anderson, una niña de 10 años que murió tras intentar el "blackout challenge" en TikTok. El tribunal sugiere que la Sección 230 de la Ley de Decencia en las Comunicaciones podría no proteger a TikTok en este caso, abriendo la puerta a una mayor responsabilidad para plataformas que promueven contenido dañino. La familia Anderson espera que este fallo impulse una revisión más estricta de las prácticas de las redes sociales y la regulación de contenido en línea.


Un tribunal de apelaciones de Estados Unidos ha reabierto una demanda contra TikTok después de la trágica muerte de Nylah Anderson, una niña de 10 años que participó en el peligroso "blackout challenge". Este desafío viral, que reta a los participantes a provocarse la pérdida de conocimiento por asfixia, fue visto por la niña en la sección "For You" de la plataforma.

Detalles del Caso

Nylah Anderson fue encontrada inconsciente en el armario de su casa en el condado de Delaware, Pensilvania, tras intentar el desafío que encontró en TikTok. A pesar de los esfuerzos de su madre, Tawainna Anderson, para reanimarla, Nylah falleció cinco días después en el hospital. La madre ha demandado a TikTok y a su empresa matriz ByteDance, argumentando que el desafío estaba disponible en la sección de recomendaciones de la aplicación incluso después de que otros niños hubieran muerto intentándolo.

Decisión Judicial

La Corte de Apelaciones del Tercer Circuito en Filadelfia ha revocado parcialmente la decisión inicial que desestimaba la demanda, señalando que la Sección 230 de la Ley de Decencia en las Comunicaciones de 1996 no protege a TikTok de la responsabilidad en este caso. Esta sección generalmente protege a los editores en línea de la responsabilidad por el contenido publicado por terceros, pero el panel de jueces sugirió que TikTok podría ser responsable por promover contenido dañino o por usar algoritmos para dirigirlo a los usuarios, incluidos los niños.

La jueza Patty Shwartz destacó que la decisión podría marcar un precedente importante en cómo se interpreta la Sección 230, especialmente en el contexto de plataformas que promueven contenido a través de algoritmos personalizados. Jeffrey Goodman, abogado de la familia Anderson, señaló que este fallo podría tener implicaciones significativas para la regulación de contenido en redes sociales y proteger a futuros usuarios de contenidos peligrosos.

Impacto y Futuro

La familia Anderson espera que este fallo impulse una mayor vigilancia sobre las prácticas de las plataformas de redes sociales y ayude a prevenir tragedias similares. Goodman subrayó que el fallo podría ser un indicio de un cambio en la forma en que los tribunales abordan la responsabilidad de las plataformas en relación con el contenido que promueven.

Este caso subraya la creciente preocupación sobre el impacto de los algoritmos de recomendación en la exposición a contenido dañino y la necesidad de una revisión más profunda de las leyes que regulan el contenido en línea.

Más Noticias

NEWSLETTER

Suscríbase a nuestro boletín de noticias