This is hard
I’ve been writing about jawboning and free expression law for half a dozen years, and was on the receiving end of real-world state pressure to remove user speech from Google’s platforms for a decade before that. The longer I’ve thought about it, the less certain I’ve become about the right legal rules to protect users’ rights in jawboning situations.
I am not alone in thinking this issue is hard. Remarkably few First Amendment experts weighed in when the U.S. Supreme Court reviewed its first platform jawboning case, Murthy v. Missouri, in 2023-24. Some important civil liberties groups filed briefs that supported neither side. The plaintiffs in Murthy claimed that numerous platforms had suppressed their speech on topics such as Covid vaccine safety under state pressure, in the form of a wide variety of public and private statements by members of the Biden administration. The case presented the kind of context-dependent questions that have driven lower courts in jawboning cases to adopt an assortment of multi-factor tests. The Court in Murthy never got that far, though. It rejected plaintiffs’ factually problematic claims for lack of standing.
This post explores considerations that might shape analysis in future jawboning cases.
Lawful but Awful Speech and Platform Independence
Major platforms like YouTube or Instagram almost universally have discretionary rules prohibiting some speech that violates social norms but that is protected and lawful as a matter of human or constitutional rights. Without these platform rules, users and advertisers would be confronted with a deluge of barely legal, offensive, harmful, and obnoxious content—and likely flee for another platform. The resulting private governance of “lawful but awful” speech is, as I have argued elsewhere, a major source of structuring difficulties in platform regulation.
The hardest jawboning questions often involve speech that platforms already prohibit under their own rules. If state actors merely notify platforms about posts that violate the companies’ own policies, and platforms independently decide whether to take them down, can state action really be blamed for the resulting suppression of users’ speech? U.S. courts have largely said no—that a user in this situation has no claim under the First Amendment. The Israeli Supreme Court reached similar conclusions in a case about Palestinian social media posts.
Identifying platforms’ “independent” choices in setting or enforcing speech rules can be a bit of a quagmire, though. Meta has surely made an enormous number of truly independent content moderation choices, for example. At the same time, the company’s head of policy has said, not unreasonably, that they are “eager to predict regulation . . . so they can adjust their policies to keep up with the times and thereby avoid risk to their business.” It is also easy to imagine—or read in the newspaper about—situations in which platforms may rationally prefer to quietly appease powerful people in government by removing or leaving up specific posts. Even the platform policies that employees “independently” apply today may be artifacts of past state action. Major platforms’ policies about terrorism-related content shifted significantly under pressure from European governments in the 2010s, for example. They seem likely to shift again through nominally voluntary changes adopted in the name of “risk mitigation” under the EU’s Digital Services Act. This messy dynamic suggests that asking whether platforms were “coerced” or acted “independently” in specific jawboning cases may often be too simplistic.
Letting State Actors Talk
The government side of the jawboning dynamic is also complicated. State actors are supposed to talk about public policy—it is a major part of their job. That makes it hard to identify the right limits on government speech. One issue in Murthy, for example, was President Biden’s public assertion that platforms were “killing people” by not acting on misinformation about the Covid pandemic. That certainly created pressure. I don’t think it was a First Amendment violation, though.
Voters in democracies elect candidates precisely because of their sometimes forceful advocacy and leadership on topics of public importance. It would be perverse if the same people were silenced once in office. One example of “coercion” alleged in Murthy was the threat of executive branch support for legislative changes to platforms’ immunities under Section 230. That’s a meaningful threat to platforms, but it’s also something politicians should be able to talk about. A First Amendment rule against government dialog with platforms about legislative proposals would be a recipe for worse and less informed lawmaking, and would deprive platforms of an opportunity to speak and advocate for themselves. In short, identifying which state communications cross the line into violating the First Amendment can be has hard as identifying truly independent platform choices.
Intermediary Liability and Jawboning
A final thorny question involves jawboning and platform liability for illegal user content. This was not at issue in Murthy, since most of the user speech in that case was presumably legal. But in other cases, like the Israeli jawboning case and the U.S. Taamneh case about liability for terrorist content, law enforcement agents told platforms about user speech that might be illegal. In both cases, national laws potentially created liability for terrorist content once the platforms “knew” about it. State communication is innately more coercive when the very act of hearing it creates legal risk for the platform. In Taamneh oral arguments, Twitter’s counsel suggested that even allegations from Turkish authorities—who are notorious for claiming that journalists and activists are terrorists—could provide platforms with culpable knowledge under U.S. anti-terrorism laws.
In some ways, communications about potentially illegal user speech look like classic prior restraints of the sort prohibited by the U.S. Bantam Books case. There, the Court held that state officials violated the First Amendment by telling booksellers that particular books were obscene, and could subject them to prosecution. But Bantam also left room for permissible “informal contacts” or “consultation between law enforcement officers and distributors prior to the institution of a judicial proceeding[.]” The parameters of these permitted communications are particularly sensitive in platform cases, given that users are not privy to the discussions, and platforms have comparatively little incentive to protect their speech.
Questions to Ask in Jawboning Cases
In service of some eventual ideal multi-factor test for jawboning cases, here are some questions I think are important.
- Was the state action visible to the public? A state actor’s public criticism of platforms—like President Biden’s in Murthy—is much easier to defend than the same message delivered behind closed doors. Public visibility, including through less direct methods like “sunshine law” disclosures about meetings, aligns with the democratic function of government speech. And it renders the state actor more accountable through future election outcomes, public criticism, or even litigation.
- Was the state action visible to the affected Internet users? Individual affected users have the strongest interest in knowing about the state’s role in suppressing their speech. Generally only platforms can deliver that information to them. But courts should be warier of state action that is taken in the expectation that it will not be disclosed.
- What threats were made? As the Supreme Court recognized in a non-platform jawboning case heard the same day as Murthy, threats have more coercive power if the speaker can actually follow through on them. A prosecutor threatening to press charges is scarier than a member of the executive branch threatening legislative changes. Threats that relate to the substantive dispute at issue (like Section 230 changes in Murthy) also seem more legitimate than threats to punish platforms using unrelated state power (like tax audits).
- What information was conveyed?
a. Legal allegations: As discussed above, state communications that might increase platforms’ exposure to liability for user content are particularly fraught.
b. Facts: Some U.S. jawboning cases involve officials conveying information with little innate coercive force, like a scientific agency’s assessment of vaccine efficacy or an election agency’s list of polling stations. Platforms generally lack their own expertise in these areas, and may independently seek such information.
- What information was conveyed?
[Versión en español]
Esto es difícil
He estado escribiendo acerca del jawboning y la libertad de expresión durante media docena de años, y antes de eso sufrí presiones estatales reales para eliminar la libertad de expresión de los usuarios de las plataformas de Google durante una década. Cuanto más lo pienso, menos segura estoy de cuáles son las normas legales adecuadas para proteger los derechos de los usuarios en situaciones de debate.
No soy la única que piensa que este tema es difícil. Sorprendentemente, pocos expertos en la Primera Enmienda intervinieron cuando la Corte Suprema de los Estados Unidos revisó su primer caso de discusión sobre plataformas, Murthy v. Missouri, en 2023-24. Algunos grupos importantes de libertades civiles presentaron escritos que no apoyaban a ninguna de las partes. Los demandantes en el caso Murthy afirmaron que numerosas plataformas habían suprimido su discurso sobre temas como la seguridad de las vacunas contra el Covid bajo presión estatal, en forma de una amplia variedad de declaraciones públicas y privadas de miembros de la administración Biden. El caso presentó el tipo de preguntas dependientes del contexto que han llevado a los tribunales inferiores en casos de debate a adoptar una variedad de pruebas multifactoriales. Sin embargo, en el caso Murthy, el Tribunal no llegó tan lejos. Rechazó las reclamaciones de los demandantes fácticamente problemáticas por falta de legitimación.
Esta publicación explora consideraciones que podrían dar forma al análisis en futuros casos de jawboning.
Independencia de plataforma y discurso legal pero terrible
Las principales plataformas como YouTube o Instagram tienen casi universalmente reglas discrecionales que prohíben algunos discursos que violan normas sociales pero que están protegidos y son legales como una cuestión de derechos humanos o constitucionales. Sin estas reglas de plataforma, los usuarios y anunciantes se enfrentarían a una avalancha de contenido apenas legal, ofensivo, dañino y desagradable, y probablemente huirían a otra plataforma. La gobernanza privada resultante del discurso “legal pero terrible” es, como he argumentado en otro lugar, una fuente importante de dificultades de estructuración en la regulación de la plataforma.
Las preguntas más difíciles de responder suelen tener que ver con expresiones que las plataformas ya prohíben en virtud de sus propias normas. Si los agentes estatales simplemente notifican a las plataformas sobre publicaciones que violan las propias políticas de las empresas y las plataformas deciden de forma independiente si las eliminan o no, ¿puede realmente culparse a la acción estatal de la supresión resultante de la expresión de los usuarios? Los tribunales estadounidenses han dicho en gran medida que no: que un usuario en esta situación no tiene derecho a reclamar en virtud de la Primera Enmienda. La Corte Suprema de Israel llegó a conclusiones similares en un caso sobre publicaciones palestinas en las redes sociales.
Sin embargo, identificar las opciones “independientes” de las plataformas a la hora de establecer o hacer cumplir las reglas de expresión puede ser un poco complicado. Seguramente Meta ha tomado una enorme cantidad de decisiones de moderación de contenido verdaderamente independientes, por ejemplo. Al mismo tiempo, el jefe de políticas públicas de la empresa ha dicho, no sin razón, que están “ansiosos por predecir la regulación… para poder ajustar sus políticas para mantenerse al día y así evitar riesgos para sus negocios”. También es fácil de imaginar—o leer en el periódico sobre—situaciones en las que las plataformas pueden preferir racionalmente apaciguar silenciosamente a las personas poderosas en el gobierno mediante eliminar o dejar publicaciones específicas. Incluso las políticas de plataforma que los empleados aplican “independientemente” hoy pueden ser artefactos de acciones estatales pasadas. Por ejemplo, las políticas de las principales plataformas sobre contenidos relacionados con el terrorismo cambiaron significativamente bajo la presión de los gobiernos europeos en la década de 2010. Parece probable que vuelvan a cambiar mediante cambios nominalmente voluntarios adoptados en nombre de la “mitigación de riesgos” en virtud de la Ley de Servicios Digitales de la UE. Esta dinámica confusa sugiere que preguntar si las plataformas fueron “coaccionadas” o actuaron “independientemente” en casos específicos puede ser a menudo demasiado simplista.
Dejar hablar a los actores estatales
El lado gubernamental de la dinámica de confrontación también es complicado. Se supone que los actores estatales deben hablar sobre políticas públicas; es una parte importante de su trabajo. Eso hace que sea difícil identificar los límites correctos al discurso gubernamental. Un tema en Murthy, por ejemplo, fue la afirmación pública del presidente Biden de que las plataformas estaban “matando gente” al no actuar basándose en información errónea sobre la pandemia de Covid. Eso ciertamente creó presión. Sin embargo, no creo que haya sido una violación de la Primera Enmienda.
Los votantes en las democracias eligen candidatos precisamente por su defensa y liderazgo, a veces contundentes, en temas de importancia pública. Sería perverso si las mismas personas fueran silenciadas una vez en el cargo. Un ejemplo de “coerción” alegada en Murthy fue la amenaza de apoyo del poder ejecutivo para cambios legislativos a las inmunidades de las plataformas bajo la Sección 230. Esa es una amenaza significativa para las plataformas, pero también es algo de lo que los políticos deberían poder hablar. Una norma de la Primera Enmienda contra el diálogo gubernamental con las plataformas sobre propuestas legislativas sería una receta para una legislación peor y menos informada, y privaría a las plataformas de la oportunidad de hablar y defenderse por sí mismas. En resumen, identificar qué comunicaciones estatales cruzan la línea y violan la Primera Enmienda puede ser tan difícil como identificar opciones de plataformas verdaderamente independientes.
Responsabilidad de Intermediarios y Jawboning
Una última cuestión espinosa tiene que ver con la manipulación y la responsabilidad de las plataformas por el contenido ilegal de los usuarios. Esto no se discutió en Murthy, ya que la mayor parte del discurso de los usuarios en ese caso era presumiblemente legal. Pero en otros casos, como el caso israelí de manipulación] y el caso estadounidense Taamneh] sobre la responsabilidad por el contenido terrorista, los agentes de la ley informaron a las plataformas sobre el discurso de los usuarios que podría ser ilegal. En ambos casos, las leyes nacionales potencialmente crearon responsabilidad por el contenido terrorista una vez que las plataformas “supieron” sobre él. La comunicación estatal es innatamente más coercitiva cuando el mero acto de escucharla crea un riesgo legal para la plataforma. En argumentos orales de Taamneh, el abogado de Twitter sugirió que incluso las acusaciones de las autoridades turcas, que son famosas por afirmar que los periodistas y activistas son terroristas, podrían proporcionar a las plataformas conocimiento culpable según las leyes antiterroristas de Estados Unidos.
En cierto modo, las comunicaciones sobre el discurso de los usuarios potencialmente ilegales parecen restricciones previas clásicas del tipo prohibido por el caso Bantam Books de EE.UU. Allí, el Tribunal sostuvo que los funcionarios estatales violaron la Primera Enmienda al decir a los libreros que determinados libros eran obscenos y podían someterlos a procesamiento. Pero Bantam también dejó espacio para “contactos informales” permisibles o “consultas entre funcionarios encargados de hacer cumplir la ley y distribuidores antes de iniciar un procedimiento judicial”. Los parámetros de estas comunicaciones permitidas son particularmente sensibles en los casos de plataformas, dado que los usuarios no están al tanto de las discusiones, y las plataformas tienen comparativamente pocos incentivos para proteger sus discurso.
Preguntas que se deben hacer en casos de manipulación
Al servicio de alguna eventual prueba multifactorial ideal para casos de mandíbula, aquí hay algunas preguntas que creo que son importantes.
- ¿La acción estatal fue visible para el público? La crítica pública de un actor estatal a las plataformas–como la del presidente Biden en Murthy–es mucho más fácil de defender que el mismo mensaje entregado a puerta cerrada. La visibilidad pública, incluso a través de métodos menos directos como las revelaciones sobre reuniones según la “ley solar”, se alinea con la función democrática del discurso del gobierno. Y hace que el actor estatal sea más responsable a través de futuros resultados electorales, críticas públicas o incluso litigios.
- ¿La acción estatal fue visible para los usuarios de Internet afectados? Los usuarios individuales afectados tienen el mayor interés en conocer el papel del Estado en la supresión de su discurso. Generalmente, solo las plataformas pueden entregarles esa información. Pero los tribunales deberían ser más cautelosos con las acciones estatales que se toman con la expectativa de que no serán reveladas.
- ¿Qué amenazas se hicieron? Como reconoció la Corte Suprema en un caso de mandíbula sin plataforma escuchado el mismo día Como Murthy, las amenazas tienen más poder coercitivo si el hablante realmente puede cumplirlas. Un fiscal que amenaza con presentar cargos da más miedo que un miembro del poder ejecutivo que amenaza con cambios legislativos. Las amenazas que se relacionan con la disputa sustantiva en cuestión (como los cambios de la Sección 230 en Murthy) también parecen más legítimas que las amenazas de castigar a las plataformas que utilizan poderes estatales no relacionados (como las auditorías fiscales).
- ¿Qué información se transmitió?
a. Alegaciones legales: Como se analizó anteriormente, las comunicaciones estatales que podrían aumentar la exposición de las plataformas a la responsabilidad por el contenido del usuario son particularmente complicadas.
b. Hechos: Algunos casos desconcertantes en Estados Unidos involucran a funcionarios que transmiten información con poca fuerza coercitiva innata, como la evaluación de una agencia científica sobre la eficacia de la vacuna o la lista de colegios electorales de una agencia electoral. Las plataformas generalmente carecen de experiencia propia en estas áreas y pueden buscar dicha información de forma independiente.