Los resúmenes en lenguaje claro desempeñan un papel crucial en la comunicación de los resultados de los ensayos clínicos a audiencias no especializadas. Con la creciente integración de la inteligencia artificial (IA) en este proceso, es básico garantizar que los resúmenes sean precisos, comprensibles y accesibles es más importante que nunca. Las herramientas de IA pueden ayudar a agilizar la redacción de resúmenes, pero también presentan desafíos, como la necesidad de supervisión humana para garantizar la claridad y la ausencia de sesgos. La tarea de guiar a la IA con principios y buenas prácticas puede mejorar la calidad y la utilidad de estos resúmenes para el público.
En un reciente seminario web presentado por CISCRP (Estados Unidos), una organización sin fines de lucro que educa a pacientes, profesionales y al público sobre la investigación clínica, representantes distintos académicos y representantes de compañías farmacéuticas compartieron su criterio sobre el uso responsable de la inteligencia artificial en la creación de resúmenes en lenguaje claro para los resultados de ensayos clínicos.
Ken Getz, fundador de CISCRP y profesor en la Facultad de Medicina de la Universidad de Tufts, moderó un debate abierto con Sudipta Chakraborty, líder de transparencia en ensayos clínicos de Biogen; Julie Holtzople, consultora independiente y experta en transparencia en ensayos clínicos; y Malgorzata Sztolsztener, directora de participación de pacientes en AstraZeneca.
Getz señaló que “estamos viendo un gran número de aplicaciones de IA, sobre todo en actividades rutinarias que requieren mucha mano de obra y tiempo, que están siendo implementadas y utilizadas dentro de la investigación clínica”. Por su parte, Sztolsztener comentó que, cuando la industria comenzó a presenciar el uso generalizado de la IA para crear lenguaje claro sin supervisión humana surgieron preocupaciones legítimas sobre la integridad de los datos, los errores en el estilo de redacción y la usabilidad para el público objetivo. “Nuestro enfoque es construir un documento que proporcione directrices y elementos que se tienen que considerar sobre cómo usar la IA de manera responsable, cómo integrarla en el marco de trabajo de forma adecuada y hacer de ella una tecnología útil que apoye a los humanos en lugar de sustituirlos”, continuó Sztolsztener.