“Advertencia: Las redes sociales pueden dañar la salud mental de los menores” — California impone etiquetas de advertencia obligatorias
“Warning: Social Media Can Harm Kids” — California Mandates Mental Health Alerts for Minors
California has taken a bold step forward in digital safety by signing into law a requirement that social media platforms display tobacco-style health warning labels for users under 18. Governor Gavin Newsom signed Assembly Bill 56 (AB 56) on October 13, 2025, marking a new era of mandated transparency regarding the risks social media may pose to young users.
Why the Warning Labels?
Supporters of the law describe it as a public health intervention similar to the warnings placed on cigarette packaging. The goal is to raise awareness of the potential risks that excessive social media use can have—especially among adolescents who are still developing emotionally and psychologically.
Child advocacy groups such as Common Sense Media have long pointed out the correlation between heavy social media use and rising rates of anxiety, depression, disrupted sleep, and body image issues among teens. The law also cites a 2023 advisory from U.S. Surgeon General Vivek Murthy, which warned that social media “can have a profound risk of harm to the mental health and well-being of children and adolescents.”
Proponents believe these warnings will help encourage behavioral change and empower parents to monitor their children’s online activities more closely.
What the Law Requires
Under AB 56, social media platforms must display clear and periodic warnings to minors about mental health risks associated with prolonged use. The key requirements include:
- A 10-second, skippable warning shown each day upon a minor’s first login.
- A 30-second, non-skippable warning after three cumulative hours of use within the same day.
- Hourly reminders beyond that point for continued active use.
The text of the warning must quote language from the U.S. Surgeon General’s report, stating that social media “can have a profound risk of harm to the mental health and well-being of children and adolescents.”
The law specifically clarifies that it does not create a private right of action—meaning individuals cannot sue social media platforms for noncompliance. It will take effect on January 1, 2027, giving companies time to implement the new system.
Broader Digital Safety Measures in California
The warning-label law is one of several measures Governor Newsom signed to strengthen online protections for minors.
- Age Verification: Another bill, AB 1043, requires digital platforms to introduce age verification or gating systems to restrict minors from accessing inappropriate content.
- Deepfake Regulations: AB 621 strengthens penalties against apps and AI tools that create “nudified” or sexually explicit deepfake images.
- AI Chatbot Safeguards: Additional laws mandate that chatbots disclose they are not human and follow strict rules regarding self-harm or explicit content.
Although Newsom vetoed one proposed measure—AB 1064—which would have restricted minors’ access to AI chatbots, he emphasized that the overall goal remains protecting children while maintaining constitutional boundaries.
Reactions and Legal Hurdles
Supporters—including child advocacy groups, mental health experts, and educators—praised the new law as a long-overdue reform. They argue that the warnings could help foster healthier online habits, prompt digital literacy conversations at home, and pressure tech companies to design safer platforms.
Critics, however, claim the law may violate First Amendment protections. Industry groups argue that forcing companies to display government-written health warnings constitutes “compelled speech,” a controversial legal area that could spark constitutional challenges.
Legal experts also warn of potential practical difficulties, including how platforms will verify user ages and display warnings across different devices. Previous attempts by California to regulate social media—such as restricting notification timing—have already faced lawsuits from major tech firms.
What This Means for Users and Platforms
For minors, the change means they will soon see regular reminders about the potential mental health risks of prolonged social media use. These alerts aim to encourage balance and mindfulness in their digital habits.
For platforms such as Instagram, TikTok, and Snapchat, the law creates new compliance obligations that could require major interface redesigns and user experience adjustments.
Other U.S. states—like Minnesota, Colorado, and New York—are watching closely and may follow California’s lead with similar legislation. Internationally, this move adds to a growing wave of online child protection laws being adopted worldwide.
A Turning Point for Online Responsibility
California’s new approach signals a shift away from trying to police online content directly and toward emphasizing awareness and user responsibility. By forcing social media companies to acknowledge the risks of overuse, the state hopes to spark a broader cultural change—one that prioritizes mental health and digital well-being over endless scrolling.
Whether the measure will significantly curb the mental health crisis among youth remains to be seen. But one thing is clear: California has officially put Big Tech on notice that social media addiction is no longer just a private problem—it’s a public health concern.
SPANISH VERSION
“Advertencia: Las redes sociales pueden dañar la salud mental de los menores” — California impone etiquetas de advertencia obligatorias
California ha dado un paso audaz en la protección digital al aprobar una ley que obliga a las plataformas de redes sociales a mostrar etiquetas de advertencia sobre salud mental dirigidas a los menores de 18 años. El gobernador Gavin Newsom firmó el Proyecto de Ley 56 (AB 56) el 13 de octubre de 2025, marcando una nueva etapa de transparencia sobre los riesgos que las redes sociales pueden representar para los jóvenes.
¿Por qué se imponen las etiquetas de advertencia?
Los defensores de la ley aseguran que se trata de una medida de salud pública similar a las advertencias que aparecen en los paquetes de cigarrillos. El objetivo es alertar sobre los posibles efectos negativos del uso excesivo de redes sociales, especialmente entre los adolescentes, quienes aún se encuentran en una etapa de desarrollo emocional y psicológico.
Diversas organizaciones de protección infantil, como Common Sense Media, han señalado una relación directa entre el uso intensivo de las redes sociales y el aumento de casos de ansiedad, depresión, trastornos del sueño y problemas de autoestima en los adolescentes. La ley también cita el informe del Cirujano General de EE. UU., Vivek Murthy, publicado en 2023, que advertía que las redes sociales “pueden tener un riesgo profundo de daño para la salud mental y el bienestar de los niños y adolescentes.”
Los promotores de la ley confían en que estas advertencias fomenten un uso más consciente y permitan a los padres involucrarse activamente en los hábitos digitales de sus hijos.
Lo que exige la nueva ley
El Proyecto de Ley AB 56 obliga a las plataformas de redes sociales a mostrar advertencias claras y periódicas a los menores sobre los riesgos del uso prolongado. Entre los principales requisitos se incluyen:
- Una advertencia de 10 segundos, que puede omitirse, mostrada en el primer inicio de sesión del día.
- Una advertencia obligatoria de 30 segundos, sin opción de omitir, después de tres horas acumuladas de uso diario.
- Recordatorios cada hora durante el tiempo de uso continuado después de ese punto.
El mensaje de advertencia debe incluir la frase del informe del Cirujano General que indica que las redes sociales “pueden tener un riesgo profundo de daño para la salud mental y el bienestar de los niños y adolescentes.”
La ley aclara que no otorga a los usuarios el derecho de demandar directamente a las plataformas por incumplimiento y entrará en vigor el 1 de enero de 2027, dando tiempo a las empresas para implementar los cambios necesarios.
Medidas adicionales de seguridad digital en California
Esta ley forma parte de un conjunto más amplio de iniciativas impulsadas por el gobernador Newsom para reforzar la seguridad infantil en línea:
- Verificación de edad: El proyecto AB 1043 exigirá que las plataformas digitales implementen mecanismos de verificación o restricción por edad para impedir el acceso de menores a contenido inapropiado.
- Regulación de imágenes falsas (deepfakes): El proyecto AB 621 endurece las sanciones contra las aplicaciones que crean imágenes “nudificadas” o contenido sexual falso mediante inteligencia artificial.
- Seguridad en chatbots de IA: Nuevas normas exigirán que los chatbots revelen que no son humanos y sigan protocolos para evitar contenido dañino o sexual.
Aunque Newsom vetó una propuesta (AB 1064) que buscaba restringir directamente el acceso de los menores a chatbots con IA, señaló que el objetivo principal sigue siendo proteger a los niños dentro de los límites constitucionales.
Reacciones y desafíos legales
Los defensores de la ley, entre ellos psicólogos, educadores y organizaciones de protección infantil, celebraron la medida como un avance histórico. Argumentan que las advertencias ayudarán a fomentar hábitos digitales más saludables y crearán oportunidades para hablar sobre el impacto de las redes sociales en la salud mental.
Los críticos, por su parte, sostienen que la ley podría vulnerar la Primera Enmienda de la Constitución estadounidense, al imponer a las empresas mensajes gubernamentales obligatorios. Expertos legales advierten, además, que será complejo definir cómo se verificará la edad de los usuarios y cómo se aplicarán las advertencias en distintos dispositivos.
Algunas leyes anteriores de California que intentaron regular el comportamiento de las plataformas ya enfrentaron demandas por parte de las grandes empresas tecnológicas, por lo que se prevé que esta medida también genere controversia en los tribunales.
Qué significa para los usuarios y las plataformas
Para los menores, la medida implica que, a partir de 2027, verán advertencias frecuentes sobre los riesgos mentales del uso excesivo de redes sociales. El objetivo es fomentar pausas y reflexiones sobre su consumo digital.
Para las plataformas como Instagram, TikTok y Snapchat, la ley representa una obligación de rediseñar partes de sus sistemas y garantizar el cumplimiento técnico de las nuevas normas.
Otros estados, como Minnesota, Colorado y Nueva York, ya observan con atención la iniciativa de California y podrían seguir el mismo camino. A nivel internacional, esta medida se suma a una tendencia global hacia la protección infantil en el entorno digital.
Un punto de inflexión en la responsabilidad digital
La ley californiana marca un cambio de enfoque: en lugar de intentar controlar directamente el contenido en línea, busca promover la conciencia y la responsabilidad del usuario. Al obligar a las plataformas a reconocer los riesgos del uso excesivo, el estado apuesta por una transformación cultural que priorice la salud mental y el bienestar digital por encima del entretenimiento constante.
Aún está por verse si esta medida reducirá los problemas de salud mental entre los jóvenes, pero algo es seguro: California ha dejado claro que la adicción a las redes sociales ya no es un problema privado, sino una preocupación de salud pública.