

pesquisafapesp



Un gas que emiten los árboles de la Amazonia acelera la formación de nubes
Organismos que viven solamente un día logran prever los cambios de estación
Crisol brasileño
La secuenciación del ADN detalla la ancestralidad indígena, europea y africana en el país y puede democratizar el acceso a tratamientos de salud personalizados

Un prototipo de aparato para estudios de mamas no comprime los senos y prescinde de los rayos X
La planificación y la versatilidad mental caracterizan a los jugadores de fútbol de élite
La importancia de la diversidad poblacional
ALEXANDRA OZORIO DE ALMEIDA directora de redacción
Cuando comenzaron los enormes proyectos de secuenciación del genoma humano, a finales del siglo XX, se creía que las diferencias existentes entre distintos individuos en lo que atañe a su composición genética serían mínimas. Por tal motivo, para alcanzar el objetivo de obtener un genoma completo de referencia, no se le puso demasiada atención a la diversidad poblacional en las muestras que serían secuenciadas. Pero resultó ser que los humanos poseen muchos menos genes de lo esperado y que los mismos no constituyen realmente la clave para develar las diferencias entre los individuos. Los avances tecnológicos han hecho posible la identificación de millones de pequeños cambios en el genoma: variaciones que pueden alterar la forma y la función de las proteínas o el patrón de activación-desactivación de los genes que las codifican. Dichas variaciones pueden presentarse como una característica común a ciertas poblaciones y tener importantes consecuencias sobre la salud pública, tales como la propensión a desarrollar ciertas enfermedades o el modo en que reaccionan los distintos organismos a ciertos medicamentos.
En un artículo publicado en la revista Science el pasado mes de mayo, se reportó la secuenciación del genoma de 2.700 personas de todo Brasil. Estos resultados no solamente permiten profundizar la comprensión de la diversidad genética de la población, sino que también respaldan los esfuerzos que se llevan adelante en el país en lo que concierne a la medicina de precisión y su disponibilidad en el sistema nacional de salud ( página 6 ).
La diversidad genética también es fundamental en otro reportaje, pero en este caso el tema es la mandioca, no los genes humanos. Algunas prácticas de cultivo que emplean ciertas poblaciones indígenas, como en el caso del pueblo Waurá, son importantes para el mantenimiento de la variedad genética, como así también para garantizar la seguridad alimentaria ( página 37). Esta edición también presenta una diversidad de otros temas, como las investigaciones que revisitan la obra de Jorge Ama-
do (1912-2001), uno de los escritores brasileños más y mejor conocidos en el exterior ( página 58). En cuanto a la tecnología, las novedades provienen de arriba: nanosatélites para localizar naufragios ( página 57) y drones equipados con radares que pueden monitorear cultivos y buscar hormigueros y restos óseos enterrados ( página 40).
La edición de mayo de Pesquisa FAPESP en portugués incluyó una entrevista con el filósofo Luiz Henrique Lopes dos Santos, de la Universidad de São Paulo. Investigador en el campo de la lógica, Lopes dos Santos tuvo una larga trayectoria como asesor de la dirección científica de la FAPESP. Ayudó a crear varios programas de investigación y fue durante 21 años el coordinador científico de esta revista. Se hace difícil resumir su importancia en la construcción de la identidad de esta publicación. Poco después de conceder dicha entrevista, Lopes dos Santos fue diagnosticado con cáncer y falleció el pasado mes de julio. Su legado en nuestra redacción perdura en la búsqueda diaria de una escritura de calidad combinada con la precisión científica, con miras a llegar a un público cada vez más amplio ( página 16 ).
Mientras preparamos esta edición para su impresión, tiene lugar la COP30 por primera vez en Brasil. La cobertura de la ciencia inherente al cambio climático siempre ha sido una parte fundamental de nuestro trabajo. Un ejemplo de ello lo constituye el artículo referente a una investigación que resalta la importancia de los aerosoles –un tipo de partículas–en la formación de las nubes ( página 44). Desde hace tiempo se sabe que los aerosoles se acumulan sobre la selva amazónica. Y un estudio reciente muestra que el isopreno, un gas que emiten los árboles a manera de mecanismo térmico regulatorio, acelera la formación de estas partículas, que pueden viajar miles de kilómetros hasta convertirse en núcleos de condensación.
Esta edición internacional contiene una recopilación de artículos publicados originalmente en portugués entre enero y junio de 2025. Subimos mensualmente nuevos contenidos en español a nuestro sitio web (revistapesquisa.fapesp.br/es/).
revistapesquisa fapesp

TAPA
Un ensayo de retratos del fotógrafo
Luiz Braga , del estado brasileño de Pará, ilustra la portada de esta edición, como así también sus reportajes. Una retrospectiva de su trabajo con el registro de los rostros de la región amazónica en el transcurso de 50 años fue objeto de una exposición en el Instituto Moreira Salles de São Paulo durante este año 2025
3 CARTA DE LA EDITORA
TAPA
6 La secuenciación del ADN de 2.723 brasileños echa luz sobre el proceso de mestizaje en el país
12 La información genómica puede democratizar el acceso a los tratamientos personalizados
ENTREVISTA
16 El filósofo Luiz Henrique Lopes dos Santos repasa su trayectoria académica y habla sobre sus más de 30 años de trabajo dedicados a la FAPESP
INNOVACIÓN
22 Un estudio detalla de qué manera los laboratorios universitarios erigen asociaciones con la industria
PSICOLOGÍA
26 Los jugadores de fútbol de élite poseen buena memoria y versatilidad mental
FISIOLOGÍA
30 Los vasos sanguíneos liberan compuestos que modulan los latidos cardíacos y la presión arterial

CRONOBIOLOGÍA
34 Las cianobacterias viven un solo día, pero aun así logran prepararse para los cambios de estación
AGRICULTURA
37 Una técnica de cultivo del pueblo Waurá, en tierras indígenas del Alto Xingú (Brasil), enriquece la diversidad genética de la mandioca
AGRONOMÍA
40 Un radar a bordo de un dron monitorea cultivos y localiza hormigueros y osamentas en el subsuelo
QUÍMICA ATMOSFÉRICA
44 Un gas que emiten los árboles de la Amazonia acelera la producción de nubes

CAMBIOS CLIMÁTICOS
48 Los eventos extremos que congregan olas de calor, acidificación y escasez de clorofila asolan al Atlántico Sur
FÍSICA
51 La interacción entre ondas de luz y ondas mecánicas puede generar avances en el área de la información cuántica
SALUD
54 Un nuevo aparato de examen de mamas evita la compresión de los senos y la radiación
INGENIERÍA ESPACIAL
57 Proyectan lanzar un nanosatélite brasileño con la misión de localizar náufragos
LITERATURA
58 Nuevos estudios revisitan la obra del escritor Jorge Amado
MÚSICA
62 Investigaciones revelan rarezas musicales y expanden el acceso a colecciones poco conocidas
66 FOTOLAB

Padre europeo, madre africana o indígena
Nuevos resultados de la secuenciación del material genético de 2.723 personas ponen de relieve las huellas de violencia en el proceso de mestizaje que dio forma al pueblo brasileño
MARIA GUIMARÃES fotos LUIZ BRAGA

No es ninguna novedad que el pueblo brasileño es mestizo, pero los pormenores sobre cómo transcurrió esta historia y sus consecuencias vienen siendo revelados poco a poco por los genetistas, además de los historiadores. El estudio más reciente, que salió publicado en mayo en la revista científica Science, ahonda y amplía el retrato de los brasileños con base en la secuenciación del material genético de 2.723 personas de todas las regiones del país. Estos resultados revelan una marcada ascendencia africana e indígena en el linaje materno, como resultado de una dinámica de violencia contra las mujeres, y una cantidad inesperada de variantes genéticas desconocidas, con potenciales consecuencias sobre la salud.
“Es muy lindo poder constatar en el ADN lo que ya sabíamos por los libros de historia”, dice la genetista Lygia da Veiga Pereira, del Instituto de Biociencias de la Universidad de São Paulo (IB-USP) e ideadora del proyecto denominado ADN de Brasil, cuyo objetivo es elaborar un retrato genómico de la población mediante la secuenciación completa de las muestras tomadas en todo el país. Según la investigadora, hasta hace unos 10 años, el muestreo de la diversidad genética de las poblaciones humanas era muy bajo, con un porcentaje de ascenden-
cia europea cercano al 80 %. Esto se debe a que los estudios en su mayor parte se llevaban a cabo en el hemisferio norte. En Brasil, los mismos se centraban en el sur y en el sudeste del país, donde hasta ahora se ha encontrado una menor presencia de ascendencia africana e indígena. La inversión con miras a ampliar ese retrato fue el puntapié inicial del Programa Genomas Brasil del Departamento de Ciencia y Tecnología (Decit) del Ministerio de Salud nacional, puesto en marcha a finales de 2019, aunque sus actividades se retrasaron casi dos años debido al inicio de la pandemia de covid-19.
Da Veiga Pereira empezó a interesarse por la diversidad genética de la población cuando se percató, hace aproximadamente 20 años, de que los embriones desechados en las clínicas de reproducción asistida de São Paulo, disponibles para su investigación con células madre, tenían un 90 % de ancestralidad europea, lo que no parecía correcto tratándose de Brasil, pero que reflejaba cuál era el público de ese servicio. Mientras tanto, el genetista Sérgio Pena, de la Universidad Federal de Minas Gerais (UFMG), escudriñaba el ADN de brasileños de diversas regiones con las herramientas disponibles en ese entonces, mucho más limitadas que las actuales. En el año 2000, el investigador publicó los resultados del análisis de 200 muestras de personas blancas, primero en la revista de divulgación cientí-
El mestizaje en la historia
Los contextos de violencia en la formación del pueblo brasileño dejaron huellas en el genoma
1500
A su llegada, los europeos se encontraron con una población de alrededor de 10 millones de indígenas, que posteriormente fueron diezmados; la violencia sexual contra las mujeres fue la norma desde el principio
Siglo XVII
Huellas genéticas que se remontan a 16 generaciones revelan el mestizaje entre mujeres indígenas y hombres europeos
Siglo XVIII
El período de la extracción de diamantes, hace casi 12 generaciones, concretó un gran flujo de europeos hacia Brasil; la trata de personas esclavizadas de origen africano se multiplicó por 10
Comienzos del siglo XIX
Hasta la prohibición de la trata, unos 2 millones de esclavizados siguieron llegando desde África durante ese siglo; es el período de mayor mestizaje entre varones de ascendencia europea y mujeres afrodescendientes, hace ocho generaciones
1822 – Independencia
Se fomentan los matrimonios entre libertos y europeos como estrategia civilizatoria: se pregonaba la europeización de la población mestiza
1850
Se prohíbe la trata de esclavizados
1871
Con la Ley de Libertad de Vientres, los niños aún pueden ser explotados hasta los 21 años, pero ya no se permite la trata. Con la consiguiente pérdida de valor de mercado, los amos dejan de interesarse por la reproducción de las mujeres esclavizadas y el mestizaje disminuye
1888
Abolición de la esclavitud
Finales del siglo XIX y principios del siglo XX
El gobierno brasileño estimula la inmigración de varones blancos, en particular, italianos, alemanes, españoles y portugueses. El aporte de alrededor de 4 millones de europeos puede detectarse en la composición genética
Último siglo
Los matrimonios pasan a concretarse principalmente entre personas de ascendencia similar

fica Ciência Hoje, y después en la revista académica American Journal of Human Genetics. Tres de cada cinco individuos tenían ascendencia indígena o africana por línea materna, lo que según Pena era superior a lo esperado. El estudio fue divulgado en el segundo año de actividad de Pesquisa FAPESP Luego de eso, Pena continuó profundizando sus estudios y unió fuerzas con otro grupo pionero en el estudio del ADN brasileño, el del genetista Francisco Salzano (1928-2018), de la Universidad Federal de Rio Grande do Sul (UFRGS). En el marco de esa colaboración con el grupo de Minas Gerais, los genetistas de Rio Grande do Sul se dieron cuenta, en un trabajo dirigido por Maria Cátira Bortolini que abarcó la maestría de Tábita Hünemeier, de que el aporte africano era mucho más amplio de lo que indicaban los registros históricos sobre la esclavización, centrada principalmente en Angola, en el centro-oeste del continente. La región occidental, donde se encuentran Senegal y Nigeria, también reveló una aportación significativa en el material genético, mayor en São Paulo que en Río de Janeiro, lo que revela una asimetría en la trata de personas, según un artículo publicado en 2007 en la revista científica American Journal of Biological Anthropology . “No hay otro país en el mundo con tanto mestizaje como Brasil”, afirmó Pena en una entrevista concedida en 2021. Los medios actuales son muy distintos a los de aquella época, lo que hizo posible el estudio publi-

cado en la revista Science. En el mismo, la herencia europea se redujo a alrededor de un 60 %, mientras que la ascendencia africana emerge con un 27 % de la contribución y la indígena con un 13 %, con la asimetría sexual que apuntara Pena: el linaje paterno que se expresa en el cromosoma Y, presente tan solo en los varones, es predominantemente europeo (el 71 %). En cambio, el ADN mitocondrial, la parte de las células que se transmite solamente de la madre a los hijos, tiene un 42 % de ascendencia africana y un 35 % indígena. “La única explicación de esto son los cuatro siglos de violencia padecida en diversos sentidos”, resume Hünemeier, actual docente del IB-USP y una de las coordinadoras del estudio. La investigadora destaca que no es raro escuchar a personas mayores contar historias del tipo “a mi abuela la agarraron con el lazo”, sin prestarle atención a lo que eso significa. En las generaciones más recientes, lo característico pasó a ser el matrimonio entre personas de ascendencia similar. Para Hünemeier, estos resultados ayudan a echar por tierra la farsa de la democracia racial que conforma la identidad nacional, ya que en gran medida el mestizaje no fue consentido.
“Brasil necesita hacer una exégesis de su historia y dejar de decir que somos un país voluntariamente mestizo”, añade la historiadora Maria Helena Machado, de la USP, quien no participó en el trabajo. “Nuestra madre es africana, nuestra abuela es indígena y nuestro abuelo es un europeo
que no se casó con ella y tuvo hijos ilegítimos”. La historiadora es especialista en género y maternidad en la esclavitud, sistema que se extendió a lo largo de todo el período colonial y el Imperio. Entre otros trabajos, en 2024 publicó, en colaboración con el historiador Antonio Alexandre Cardoso, de la Universidad Federal de Maranhão, el libro Geminiana e seus filhos: Escravidão, maternidade e morte no Brasil do século XIX (editorial Bazar do Tempo). “Las mujeres esclavizadas, ya sea que fueran indígenas o africanas, estaban al servicio del esclavizador, lo que hacía que el acoso y las violaciones fueran habituales”, dice.
Por lo tanto, las mujeres eran esclavizadas por partida doble: funcionaban como trabajadoras y reproductoras. “La colonización operó en el cuerpo de las mujeres esclavizadas”. Machado explica que las políticas coloniales portuguesas y, a partir de 1822, del país independiente, siempre estimularon el mestizaje y el blanqueamiento. Un ejemplo: José Bonifácio de Andrada e Silva (1763-1838), como diputado de la Asamblea Constituyente de 1823, presentó propuestas para contribuir a la formación del pueblo brasileño mediante matrimonios entre mujeres afrodescendientes e indígenas con hombres blancos. Esto formaba parte de un proyecto “civilizatorio” en el que la
población negra se integraría a la europea. Sin embargo, la continuidad de la esclavitud hasta 1888 mantuvo a las mujeres esclavizadas sujetas a aquellos que ostentaban el control sus cuerpos.
“Todo esto conduce a la situación que ahora describen los genetistas”, culmina diciendo Machado.
También resulta interesante la amplia diversidad de etnias africanas, tal como Hünemeier lo había observado desde el comienzo de su carrera científica.
Personas que en África nunca se hubieran encontrado, por vivir en países y comunidades alejadas entre sí, se subieron a la fuerza a los barcos negreros y luego se las agrupó en contextos de trabajo esclavizado. La idea era reunir gente de diferentes culturas, que ni siquiera hablaban el mismo idioma, con miras a minimizar el riesgo de que se organizaran para luchar contra sus “amos”. El resultado de ello es una amalgama de todo un continente, que solo puede encontrarse en el territorio brasileño. “Es el país con mayor ancestralidad africana fuera de África”, dice la genetista.
Más allá de la afluencia inicial portuguesa a partir del siglo XVI, la diversidad europea también se muestra elevada, con un gran aporte de inmigrantes de Alemania e Italia en los siglos XIX y XX, además de una muestra más dispersa procedente de otros países. Un dato peculiar fueron los 10 descendientes de japoneses de la muestra de São Paulo que no mostraban huellas de mestizaje, lo que reveló una contribución muy limitada y reciente a la composición genética de la población nacional.
El artículo define a la colonización de América como el mayor desplazamiento poblacional de la historia humana. En Brasil, alrededor de 5 millones de europeos y otro tanto de africanos fueron trasplantados a la región hasta entonces poblada por
La ancestralidad por regiones
unos 10 millones de indígenas que hablaban más de 1.000 idiomas. Estos pueblos fueron diezmados, lo que causó un declive poblacional de un 83 % en el interior del país y un 98 % en el litoral desde principios del siglo XVI hasta los días actuales.
“Esperábamos hallar nuevas variantes genéticas, pero los resultados fueron mucho más allá”, dice la genetista Kelly Nunes, quien se dedicó a analizar los datos durante su pasantía posdoctoral en el IB-USP, en el laboratorio de Hünemeier, junto a otros tres colegas con quienes comparte la autoría principal del artículo: Marcos Castro e Silva, Maira Ribeiro y Renan Lemes. Las variantes son divergencias en la secuencia de un individuo en comparación con el genoma de referencia. “Detectamos 78 millones de variantes, de las cuales casi 9 millones no estaban registradas en ninguna otra base de datos”. Quedó claro que el ADN que compone la población brasileña incluye una muestra de poblaciones dejadas de lado desde el punto de vista genómico, especialmente africanas e indígenas de América del Sur. Próximamente, con la ampliación del muestreo, podrán precisarse mejor las dimensiones de este manantial de novedades genéticas. “Hemos establecido colaboraciones con miras a obtener muestras de las cinco regiones brasileñas, lo que nos ha permitido tener un mayor acceso a la ancestralidad africana e indígena”, explica la investigadora.
Unas 36.000 de las casi 9 millones de variantes nuevas descritas parecen tener efectos nocivos, ya que generan anomalías en las proteínas respectivas con pérdida de su función, por ejemplo, y pueden estar asociadas a dolencias como el cáncer, disfunciones metabólicas o enfermedades infecciosas.
“Lo que hemos descubierto sobre estas variantes puede extrapolarse a pueblos que no han sido muestreados, como en el continente africano”, propone Nunes. El conocimiento de la ancestralidad y de cómo se distribuye en el genoma y en las distintas
El nordeste de Brasil presenta zonas más africanas, mientras que el sudeste y el sur del país son europeos y la herencia indígena se concentra más en el norte

AFRICANA INDÍGENA

poblaciones del mundo la propensión a contraer enfermedades puede contribuir a democratizar el acceso a la salud de precisión, tal como se lo describe en el reportaje que comienza en la página 12.
Al analizar los genes con signos de haber sido favorecidos por la selección natural, por lo general un aumento de frecuencia en comparación con lo que se esperaría aleatoriamente, sobresalieron aquellos relacionados con la fertilidad o la cantidad de hijos generados, con origen en la ascendencia europea. Se trata de un rasgo que sin duda aportó beneficios durante el proceso de colonización, en el que los portugueses que se instalaron aquí expandieron rápidamente su presencia. Asimismo, los genes de respuesta inmunológica de origen africano exhiben signos de selección, lo que refleja un historial de una amplia variedad de agentes patogénicos. Los resultados también revelan indicios genéticos de enfermedades metabólicas concentradas en la ascendencia indígena, aparentemente vinculadas al contexto de un cambio gradual de los hábitos alimentarios. “Empezamos a consumir alimentos industrializados, lo que genera un ambiente de selección natural para ciertos genes”, explica Nunes. Uno de los retos que planteó el estudio fue el análisis de los datos, que contó con la infraestructura de computación en la nube cedida por
Google. “En Brasil no había profesionales calificados para lidiar con ese volumen de información”, comenta la genetista, quien afirma haber aprendido mucho con el proyecto, que también aportó calificación a muchas otras personas. Ya se han secuenciado otros 7.000 genomas, lo que amplía la búsqueda de representatividad. Las autoras prometen arribar a nuevos resultados en breve. Iniciativas similares en otros países de la región también podrían contribuir a la comprensión de la historia sudamericana. “Hemos detectado un componente específico de ascendencia genética precolombina, presente fundamentalmente en el centro-oeste de Argentina”, le comentó a Pesquisa FAPESP vía correo electrónico el genetista argentino Rolando González-José, investigador del Centro Nacional Patagónico (Cenpat) y coordinador del Programa de Referencia y Biobanco Genómico de la Población Aregentina (PoblAr), quien no participa en el proyecto de la USP. “Las suposiciones de larga data sobre la dinámica de la población durante el período posterior al contacto con los colonizadores son insuficientes para explicar la historia evolutiva que subyace a la diversidad genética en las poblaciones argentinas modernas”. A su juicio, las colaboraciones con investigadores brasileños pueden rendir frutos. l
El proyecto, los artículos científicos y el libro consultados para la elaboración de este reportaje aparecen listados en la versión online
Medicina de precisión para todos
La información genómica sobre la población brasileña puede democratizar el acceso a tratamientos personalizados y bajar los costos de la atención de la salud en el país
La salud de precisión es fruto de los proyectos en cuyo marco se secuenció el genoma humano, y no es un lujo. Al contrario: hace posible formular un diagnóstico más certero de algunas enfermedades y una planificación mejor y más segura de la medicación. Esto es bueno para el sistema sanitario, que deja de desperdiciar recursos en procedimientos ineficaces, y también para los pacientes, que reciben el tratamiento que mejor les funciona, con menos efectos colaterales. Sin embargo, Brasil padece una escasez de aquellos parámetros biológicos que permitirían saber qué variantes genéticas causan enfermedades en el país. Esto se debe a que las secuenciaciones que sirven de referencia internacional se obtuvieron en su mayoría a partir de personas de ascendencia europea del hemisferio norte.
El enfoque en la diversidad local y regional no es localismo. Aunque la mayor parte del genoma es similar entre personas diferentes, ciertas alteraciones puntuales pueden marcar una gran diferencia en el funcionamiento de genes que, cuando son defectuosos, causan enfermedades. Por lo tanto, es fundamental entender la composición genética de la población brasileña: de ahí surge el interés del Departamento de Ciencia y Tecnología (Decit) del Ministerio de Salud nacional en crear el Programa Nacional de Genómica y Salud de Precisión – Genomas Brasil. Además del ADN de Brasil (véase el reportaje que comienza en la página 6), el mismo abarca otros proyectos, entre ellos el Genomas
SUS –una referencia a las siglas del Sistema Único de Salud, la red nacional de salud pública–, que articula a varias universidades con miras a evaluar el impacto de la genómica en la salud. El proyecto, que se puso en marcha en abril de 2024, prevé terminar en noviembre la secuenciación de 21.000 genomas completos de brasileños. En el transcurso de tres años, el objetivo es llegar a 80.000 genomas, tomando el recaudo de realizar un muestreo de ancestralidades muy diverso. A su vez, la FAPESP anunció que emitió una convocatoria a la presentación propuestas para financiar la secuenciación de otras 15.000 muestras. La idea es seleccionar proyectos más pequeños de investigadores que actualmente no participan en Genomas SUS. “Será una contrapartida de la Fundación para el proyecto nacional”, explica el médico Leandro Machado Colli, de la Facultad de Medicina de Ribeirão Preto de la Universidad de São Paulo (FMRP-USP), coordinador del proyecto. “Las muestras podrán extraerse en cualquier lugar de Brasil, siempre que los investigadores estén radicados en São Paulo”. Tal como Machado Colli lo explica, la estrategia actual del proyecto Genomas SUS radica en utilizar la tecnología denominada short reads, que consiste en leer el genoma a partir de fragmentos cortos de 150 pares de bases, un método cuyo costo es más viable. Con secuenciaciones más completas para garantizar el contexto, los beneficios son muy buenos. “De las 21.000 muestras con las que contamos, analizaremos 200 con la tecnología long reads para tener una referencia más precisa”, dice

MARIA GUIMARÃES fotos LUIZ BRAGA

el investigador. En este caso se trata de fragmentos más grandes, que llegan a contener cientos de miles de pares de bases. En esta contextualización de los genes relacionados con enfermedades, es fundamental conocer la ascendencia de cada fragmento del ADN del paciente. “Podemos saber qué permite decir ese fragmento de material genético, en esa localización geográfica, sobre la salud de la persona”. Esto se debe a que, con las secuenciaciones, incluso las menos precisas, es posible saber en qué parte de cada cromosoma se encuentran las variantes alteradas y, de este modo, posiblemente asociarlas a la propensión a contraer enfermedades relacionadas con ellas.
Para asegurar la representación de la diversidad nacida del mestizaje, Genomas SUS cuenta con nueve centros de anclaje distribuidos por todo el país: dos de ellos en São Paulo y los demás en Río de Janeiro, Minas Gerais, Paraná, Pernambuco y Pará. “La población brasileña tiene una gran representatividad de pueblos que se mestizaron durante su proceso de formación, entre ellos indígenas y de ascendencia africana”, dice la genetista Ândrea Ribeiro-dos-Santos, coordinadora del único centro del país ubicado en la región norte, con sede en la Universidad Federal de Pará y en funcionamiento desde septiembre de 2024. “En la región amazónica, las mujeres indígenas a menudo eran recibidas en el seno de las comunidades habitantes de palenques o quilombolas, pues ellas conocían los secretos y los modos de vida de la selva”, ejemplifica, con base en los resultados de las investigaciones de su grupo que detectaron esta asimetría sexual en la contribución genética. Al igual que el centro de la región nordeste, el de la Amazonia aún no cuenta con un equipo de secuenciación, razón por la cual debe enviar las moléculas de ADN extraídas para que se las analice en otros centros. Por ahora, ya se han secuenciado 1.800 muestras, la mayoría del estado de Pará. Pero esto ha de cambiar con la inclusión de otros estados de la región. “Hace dos semanas estuvimos en una misión sanitaria en el estado de Amapá, donde extrajimos muestras en el marco de un trabajo conjunto con las secretarías de Salud del estado y del municipio, y también con la Universidad Federal de Amapá”. Se están negociando acuerdos con instituciones de los estados de Amazonas y Acre, con especial atención a las cuestiones éticas obligatorias que deben cumplirse. Los retos en esta región son considerables: la llegada a ciertas comunidades tradicionales puede comprender viajes en avión y en coche, seguidos de días a bordo de un barco. Pero es precisamente en estos rincones donde se encuentra una riqueza

única del territorio brasileño: la diversidad genética y cultural de su población humana.
Ribeiro-dos-Santos pone de relieve la importancia que reviste para el Sistema Único de Salud (SUS) comprender las variantes genéticas regionales y raras a los efectos de implementar protocolos de tratamientos para enfermedades tales como la diabetes y el cáncer. En general, no es tan solamente un gen el que está por detrás de estas afecciones, sino una infinidad de sendas que pueden causar disfunciones en la replicación de las células o en el metabolismo, lo que conduce al cáncer o, en el segundo caso, a la diabetes, y cualquier pieza alterada puede desencadenar la enfermedad. Una medicación eficaz es aquella que actúa sobre el foco del problema. “Sin este conocimiento específico, la persona puede morirse como resultado del tratamiento, o bien podría ser que el mismo no surta ningún efecto.”
“Es importante saber cómo aplicar la genómica para comprender las desigualdades sociales y arribar a un mejor diagnóstico de las enfermedades genéticas complejas”, añade el biólogo Eduardo Tarazona, de la Universidad Federal de Minas Gerais (UFMG), coordinador del Instituto Nacional de Ciencia y Tecnología de Ancestralidad Genómica, Enfermedades y Bioinformática en Brasil (INCT-AncesGen) y uno de los investigadores que se encuentran al frente del Genomas SUS. “Cuanto menos europea es una persona, menos saben la ciencia y la genética sobre sus enfermedades.”
Un ejemplo de ello es el trabajo internacional –que contó con la participación de Machado Colli–que mapeó áreas del genoma vinculadas a la susceptibilidad al cáncer renal, publicado en 2024 en la revista científica Nature Genetics. “En las etapas
anteriores del estudio no se incluyeron muestras brasileñas, por temor a que el mestizaje redujera el poder de análisis de la asociación”, afirma el médico. Pero sucedió lo contrario: al incluir en los análisis una cohorte brasileña, apareció una variante genética hasta entonces desconocida, presente en las personas afrodescendientes.
Cuando el genetista estadounidense Francis Collins, a la sazón director de los Institutos Nacionales de Salud (NIH) de su país, dictó una conferencia en la sede de la FAPESP en 2014, la médica genetista Iscia Lopes-Cendes, de la Universidad de Campinas (Unicamp), le pidió su opinión sobre la concreción de un proyecto genómico poblacional en Brasil. Collins lo consideró innecesario, ya que la diversidad genética humana ya se encontraría bien caracterizada. “Estaba completamente equivocado: los estadounidenses no entienden que las demás poblaciones latinas no son iguales a la mexicana”, bromea la investigadora, quien no quedó convencida con la respuesta. En 2015, fundó la plataforma BIPMed (Iniciativa Brasileña en Medicina de Precisión, por sus siglas en inglés). “Se trata de la primera base de datos genómicos de América Latina”, dice. “Tenemos un proyecto conjunto con Angola que es Genomas Angola (Genan), en cuyo marco ya hemos recolectado 750 muestras”, añade Lopes-Cendes, quien dirige a una estudiante doctoral angoleña en este proyecto. La experta espera hallar variantes genéticas aún no descritas, lo que tendrá potencialmente una utilidad práctica para ambos países, vinculados ancestralmente como

consecuencia del flujo de personas esclavizadas traídas a Brasil durante el período colonial.
“Si hay un lugar en donde es posible tener una salud de precisión al alcance de todos, ese lugar es Brasil”, sostiene. “Tenemos el SUS”. Ella refuta la idea de que esta tecnología solamente estaría al servicio de los países y de las personas ricas. Al contrario: según sostiene, la misma puede erigirse como una herramienta importante para la medicina preventiva. “La salud personalizada permite arribar a tratamientos más eficientes, con las dosis adecuadas destinadas a las personas adecuadas, con menos efectos adversos y con menores costos.”
Lopes-Cendes y la genetista Thais de Oliveira, quien cumple una pasantía posdoctoral en su laboratorio, publicaron en enero un comentario en la revista Annual Reviews of Genomics and Human Genetics en donde hacen hincapié en la importancia de las bases de datos públicas que recopilen información genómica sobre las poblaciones latinoamericanas. El genetista argentino Rolando González-José, investigador del Centro Nacional Patagónico (Cenpat) y coordinador del Programa de Referencia y Biobanco Genómico de la Población Argentina (PoblAr), coincide. “Es importante que los gobiernos lleguen a acuerdos para conectar las bases genómicas de la región”, sugirió por correo electrónico a Pesquisa FAPESP. Al igual que Machado Colli, González-José sostiene que la secuenciación con tecnología short reads aporta beneficios y optimiza los presupuestos disponibles. El proyecto ADN de Brasil, que forma parte del Programa Genomas Brasil, apunta a contribuir a la salud de precisión elaborando un retrato detallado de la variación genética brasileña. La industria farmacéutica también podrá beneficiarse de estos avances. La genetista Lygia da Veiga Pereira, de la USP y fundadora del proyecto, aprovechó en 2021 los conocimientos adquiridos en el transcurso de su trayectoria académica para crear una startup llamada gen-t, ahora financiada por el Programa de Investigación Innovadora en Pequeñas Empresas (Pipe) de la FAPESP. “Estamos construyendo una infraestructura de datos sobre salud, estilos de vida y multiómicas con 200.000 genomas que la industria podrá emplear para acelerar la búsqueda de nuevos fármacos”, explica.
Puede llegar a erigirse como un buen complemento con miras a la implementación de posibles nuevas estrategias en el ámbito del SUS. “Recién estamos asomándonos a la comprensión del impacto de la genómica en la salud de la población”, afirma Machado Colli. l
Los proyectos y artículos científicos consultados para la elaboración de este reportaje aparecen listados en la versión online
Un llamado de la lógica
El filósofo paulistano revisita su trayectoria académica y comenta sus más de 30 años de labor en la gestión de la financiación de la investigación científica en la FAPESP
ANA PAULA ORLANDI Y FABRÍCIO MARQUES retrato
LÉO RAMOS CHAVES
En 1972, con tan solo 22 años, Luiz Henrique Lopes dos Santos se convirtió en docente del Departamento de Filosofía de la Facultad de Filosofía, Letras y Ciencias Humanas de la Universidad de São Paulo (FFLCH-USP), en donde cursó sus estudios de grado y actualmente es profesor sénior. Por entonces, él formaba parte de una generación de jóvenes investigadores llamada a cubrir el vacío dejado por la jubilación compulsiva y prematura de docentes perseguidos por el régimen militar en Brasil. Bajo la dirección de figuras de renombre como Otília Arantes, José Arthur Giannotti (1930-2021) y Oswaldo Porchat (1933-2017), Lopes dos Santos forjó una carrera que abarcó la filosofía de la lógica y la historia de la filosofía en instituciones tales como la USP, la Universidad de Campinas (Unicamp), la École Normale Supérieure, de P arís, la Universidad París 7 y la Universidad Federal de Río de Janeiro (UFRJ). Su producción académica se centra principalmente en las obras del matemático, lógico y filósofo alemán Gottlob Frege (1848-1925), que fue el tema de su tesis doctoral defendida en 1981 en la USP, y del filósofo austríaco Ludwig Wittgenstein (1889-1951). Uno de sus mayores aportes fue la traducción al portugués del Tractatus logico-philosophicus, escrito en 1921 por Wittgenstein, que incluye una introducción crítica de su autoría.
En simultáneo a su labor docente y su producción en filosofía, se dedicó a la gestión del fomento de la investigación científica. Durante más de tres décadas se desempeñó como coordinador de filosofía y humanidades de la Dirección Científica de la FAPESP, evaluando miles de proyectos presentados por investigadores y ayudando a formular programas de la Fundación. Su trabajo en la FAPESP incluyó la coordinación científica de la revista Pesquisa FAPESP durante 21 años y la formulación del Código de Buenas Prácticas de la Fundación, en 2011. En febrero de 2025, le concedió a Pesquisa FAPESP la siguiente entrevista. Poco tiempo después, Lopes dos Santos recibió un diagnóstico de cáncer y falleció en julio.
¿Cómo surgió su interés por la filosofía?
Cuando tenía alrededor de 15 años me uní al movimiento estudiantil secundario y empecé a leer filosofía política, aunque enseguida migré hacia la filosofía en general. Pero a la hora de decidir qué trayectoria seguiría dudaba entre una opción más clásica, que en mi caso sería el derecho, y la filosofía. Vengo de una familia con muchos abogados y mi padre, que era corredor de bolsa, quería que estudiara derecho. Me presenté al examen de ingreso de ambas carreras y en 1968 empecé en derecho en la USP, donde cursaba por la mañana, y en filosofía en la PUC-SP [Pontificia Universidad Católica de São Paulo], por la tarde.
¿Cuándo eligió el que sería su camino profesional?
En la década de 1960, el recorrido natural de un filósofo era la carrera académica y estaba muy poco institucionalizada. Daba cierta inseguridad. Fue Otília Arantes, mi profesora en la PUC y una de mis grandes referencias académicas quien me puso en la senda de la filosofía. Me mostró que ese camino profesional era

ESPECIALIDAD
Filosofía de la lógica e historia de la filosofía
INSTITUCIÓN
Facultad de Filosofía, Letras y Ciencias
Humanas de la Universidad de São Paulo (FFLCH-USP)
ESTUDIOS
Título de grado (1971) y doctorado (1981) por la USP
posible. Cuando decidí trasladarme a la carrera de filosofía en la USP, en gran parte por influencia suya, ya presentía que la balanza se inclinaba hacia la filosofía. Volví a presentarme al examen de ingreso y entré en la promoción de 1969.
¿Cómo fue ese cambio a filosofía en la USP?
Fue un poco frustrante. En aquella época el departamento perdió docentes debido a las persecuciones a que fueron sometidos por el régimen militar. Durante el primer mes tuve clases con José Arthur Giannotti, quien poco después fue obligado a jubilarse, al igual que Bento Prado Júnior [1937-2007]. Otros, como Ruy Fausto [1935-2020], tuvieron que huir de Brasil. El departamento quedó completamente menguado. A mediados de 1969, en un acto de guapeza, concerté una entrevista con Giannotti en Cebrap [Centro Brasileiro de Análise e Planejamento], institución que él ayudó a fundar y le dije: “Fui a estudiar filosofía a la USP por profesores como usted, que ya no están. ¿Qué hago?”. Él estaba preparando un artículo sobre Durkheim [1858-1917], teórico de la sociología, y me pidió que leyera algunos textos y le expusiese. Pasé la prueba y a partir de entonces, hice de manera informal lo que hoy se conoce como iniciación a la investigación científica bajo la dirección de Giannotti. Cada 15 días iba a su casa a discutir sobre Kant [1724-1804]. Nos hicimos muy amigos.
¿Se recibió en derecho y en filosofía? Durante tres años cursé ambas carreras en forma simultánea. Eso fue así hasta que el asistente de Oswaldo Porchat, mi profesor de lógica, aceptó una excelente oferta de empleo, en términos remunerativos, del Banco do Brasil. A finales de 1970, Porchat se me acercó y me dijo que, si concluía mi carrera el año siguiente, podría ser contratado como su asistente. Para poder hacer dos años en uno tuve que abandonar derecho, pero dejé esa carrera sabiendo que iba a empezar una trayectoria en la filosofía. El llamado de Porchat fue decisivo porque me debatía entre la estética y la lógica.
¿Cómo fue convertirse en docente universitario siendo tan joven? Obviamente estaba muy nervioso. Tenía 22 años y era más joven que la mayoría
de los alumnos. Pero como ya dije, el departamento estaba muy falto de docentes. Recuerdo que también contrataron a varios profesores de mi generación, tales como Carlos Alberto de Moura, Ricardo Ribeiro Terra y Olgária Mattos, entre otros. Algunos fueron invitados por Giannotti a participar en un seminario en Cebrap, que se extendió de 1971 a 1973. Esa experiencia fue muy importante para mi formación por el alto nivel de los debates.
¿La noticia de que había sido contratado dejó a su padre más tranquilo en cuanto a su elección profesional? Se sintió aliviado al enterarse de la novedad, ya que estaba muy preocupado por mi futuro. Pero por desgracia murió poco tiempo después, a los 49 años, a finales de 1971. Él tenía un buen pasar, pero no era rico. Prefería viajar antes que ahorrar dinero. Después de su muerte, mi madre, que era ama de casa, tuvo que mantenerse por su cuenta. Fue a trabajar con su hermano y decidió estudiar ciencias sociales. A sus casi 43 años, aprobó el examen de ingreso en la USP, en la década de 1970. Solíamos cruzarnos en la universidad, yo como docente y ella como alumna. Tras graduarse, entró a trabajar en la Fundación
de Apoyo a los Trabajadores Presos, donde permaneció hasta jubilarse en la década de 1990. Su tarea era ocuparse del departamento de alfabetización y cumpliendo esa labor mantuvo contacto con reclusos como Chico Picadinho, un famoso asesino serial de las décadas 1960 y 1970. Mi mamá era muy dinámica y ya en la época en que era ama de casa se había sumado a la militancia católica progresista. Para mí eso incluso fue un aliciente para unirme al movimiento estudiantil secundario en 1964, poco antes del golpe militar.
¿Qué estudió en su maestría?
No tengo título de magíster. Comencé mi investigación de maestría en la USP bajo la dirección de Porchat, en 1972, que versaba sobre el matemático, lógico y filósofo alemán Gottlob Frege. Pero cuando iba a empezar a redactar mi tesina, Porchat me pidió que fuera su mano derecha en el Centro de Lógica, Epistemología e Historia de la Ciencia y también en el Departamento de Filosofía que se aprestaba a crear en la Unicamp. Eso fue en 1975. Cuando acepté su invitación, me advirtió que de momento sería imposible que continuara con mi investigación de maestría.
¿Cómo surgió la idea del centro?
Cuando mi padre murió, mi madre tuvo que salir a trabajar y simultáneamente, casi con 43 años, ingresó a la carrera de ciencias sociales en la USP
Porchat había querido crearlo en la USP, pero el departamento de filosofía rechazó su propuesta por diferencias ideológicas. Vivíamos en un ambiente muy polarizado. Los de la lógica éramos considerados reaccionarios y alienados, porque nuestro campo estaba supuestamente vinculado al capitalismo, como pensaban algunos miembros del departamento. Pero Porchat era muy amigo del que a la sazón era el vicerrector de la Unicamp, el ingeniero y físico Rogério Cesar de Cerqueira Leite [1931-2024], quien le dijo al entonces rector de la Unicamp, Zeferino Vaz [19081981], que estaban ante una oportunidad única para la universidad en el área de la filosofía. Vaz se entusiasmó con la idea de un centro interdisciplinario y suministró las condiciones materiales que ninguna otra iniciativa vinculada con la filosofía disponía en aquel momento en Brasil. Ello hizo posible, por ejemplo, traer investigadores visitantes del exterior y organizar coloquios internacionales. El centro fue fundado en 1977 y aún sigue activo.
¿Cómo estaba compuesto?
Estaba formado por investigadores del departamento de filosofía de la Unicamp y de áreas tales como matemática, sociología, física, lingüística y teología. A mí me tocó cooperar con el Instituto de Estudios del Lenguaje [IEL], en donde dicté clases entre 1977 y 1981.
¿Existía una comunidad de lógicos en Brasil?
En efecto, pero era y sigue siendo muy pequeña. El más conocido era Newton da Costa [1929-2024], quien en aquella época estaba en la USP, pero era una gran influencia para algunos de los miembros del centro como Ayda Arruda e Itala D’Ottaviano. En aquel entonces yo también me acerqué a Da Costa y a su lógica paraconsistente y publiqué algunos trabajos. Más allá de sus aportes al campo de la lógica, el centro fue fundamental para la conformación de una comunidad académica de la filosofía en Brasil. Había entonces varios centros con gente altamente calificada, diseminados por diversos estados del país. Al articular estas islas de conocimiento a través de sus actividades, el centro contribuyó, por ejemplo, para la creación de la Anpof [Asociación Nacional de Posgrado en Filosofía], en 1983.
¿Qué estudió en su doctorado?
Mi doctorado, bajo la dirección de Porchat, fue una ampliación de mi investigación de maestría inconclusa. Procuré entender de qué manera Frege promovió, en la segunda mitad del siglo XIX, una ruptura con el modelo lógico aristotélico, vigente por casi 2.000 años. Para dar respuesta a las preguntas que surgieron durante su investigación sobre los fundamentos de la matemática, se vio obligado a repensar la lógica, lo que lo llevó a la concepción de lo que hoy en día llamamos lógica matemática. La Unicamp me ofreció un contrato como profesor doctor, con el compromiso de que concluyera mi tesis en 1980, pero me costó mucho terminarla. Entre 1975 y 1978 prácticamente no avancé en la investigación, porque estaba inmerso en la burocracia del departamento y del centro, dando clases y realizando seminarios. En 1978 la retomé y logré defender la tesis en 1981. Mi trabajo salió publicado en 2008 con el título O olho e o microscopio [Nau Editora].
Permaneció en la Unicamp hasta 1981. ¿Qué lo motivó a volver a la USP?
El centro que creamos en la Unicamp en los años 1970 fue fundamental para la formación de una comunidad académica de la filosofía en Brasil
Fue una cuestión personal. Entonces me había separado y mis hijos, que todavía eran pequeños, vivían con la madre en São Paulo. Como no quería vivir yendo y viniendo por la carretera, regresé al departamento de filosofía de la USP. Por la misma época Giannotti también retornó a la USP e impartíamos juntos la asignatura de Introducción a la Filosofía en el primer año de la carrera. Él dictaba la clase inaugural o las teóricas y yo hacía seminarios con los alumnos, analizando los textos, leyéndolos y releyéndolos varias veces. Formamos a varias generaciones de filósofos.
En la década de 1990 tradujo para la editorial de la Universidad de São Paulo [Edusp] el Tractatus logico-philosophicus, escrito en 1921 por el austríaco Ludwig Wittgenstein. ¿Cuáles fueron los retos que supuso ese trabajo? No es nada fácil traducir del alemán al portugués una obra tan compleja como la de Wittgenstein, uno de los grandes filósofos del lenguaje. Para hacerse una idea, el estudio introductorio que hice para explicar el lugar que ocupa el Tractatus en la historia de la filosofía es más extenso que la obra en sí. Giannotti ya lo había
traducido y había escrito una introducción en 1968. Fue la segunda traducción de la obra en el mundo, después de la inglesa, y fue una tarea hercúlea para Giannotti, ya que Wittgenstein había muerto hacía tan solo 17 años. Era su contemporáneo y prácticamente no existía literatura sobre su obra. En la década de 1990, Edusp le propuso a Giannotti hacer una nueva edición de su versión en portugués.
El propio Giannotti dijo que el trabajo que hizo en la década de 1960 contenía muchos errores. ¿Está de acuerdo? Tenía algunos errores, pero no en la traducción del alemán en sí, sino conceptuales, porque en la época había muy poca familiaridad con aquel universo. Es el caso de algunos términos específicos de la filosofía alemana de finales del siglo XIX, referentes a filósofos como Franz Brentano [1838-1917], que pocos leían en Brasil. Cuando recibió la propuesta de Edusp en la década de 1990, Giannotti me pidió que hiciera una revisión, pero consideré que eso daría lugar a una especie de frankenstein y propuse rehacer la traducción. Giannotti aceptó y me encomendó esa misión.
Entre 1986 y 2007, Giannotti dirigió el Programa de Formación de Cuadros de Cebrap. ¿Qué papel cumplió usted en él?
Era un programa de formación interdisciplinaria dirigido a estudiantes de posgrado de diversas áreas del conocimiento, posible gracias a un convenio entre la Capes [Coordinación de Perfeccionamiento del Personal de Nivel Superior] y Cebrap. El ingreso al mismo era difícil. A lo largo de dos años, estos alumnos participaban en actividades tales como seminarios de antropología, ciencia política, sociología, economía y filosofía. Los encuentros tenían lugar dos veces por semana y entre los docentes estaban Paul Singer [1932-2018] y Ruth Cardoso [1930-2008]. Yo participé activamente en el núcleo de filosofía hasta que me fui a París, a finales de la década de 1990.
En 1986 llegó a la FAPESP. ¿Cómo era la Fundación en aquella época?
En 1986, Flavio Fava de Moraes, en ese entonces director científico de la FAPESP, me invitó a sumarme en reemplazo de João Paulo Monteiro [1938-2016] en el área de filosofía de la Coordinación de Ciencias Humanas y Sociales. No existía
la figura del coordinador general, pero, por su personalidad y su trayectoria, esa función la cumplía Leôncio Martins Rodrigues [1934-2021]. Estaban Boris Fausto [1930-2023] en Historia, Maria Alice Vanzolini en Psicología, Cláudia Lemos en Lingüística y estaba yo en Filosofía.
El volumen de trabajo era pequeño en aquella época en comparación con lo que es actualmente, ¿verdad? Íbamos los lunes y lo primero que hacíamos al empezar la reunión era comentar los partidos de fútbol de la fecha del domingo: Boris Fausto, como yo, era fanático de Corinthians. Había unos 15 o 20 expedientes para analizar por semana. Cada uno de nosotros recibía unos cuatro. Los estudiábamos, elaborábamos un informe y decidíamos si se concedía la ayuda o la beca o no. Y nos íbamos. Era otro mundo. Acababa de producirse un cambio que transformaría el perfil de la FAPESP, merced a una enmienda introducida en la Constitución del Estado de São Paulo, presentada por el diputado Fernando Leça y aprobada en 1983, que establecía que las transferencias del Tesoro a la FAPESP, que eran el 0,5 % de la recaudación fiscal de la época, se calcularían sobre la base del año en curso y se girarían en 12 cuotas mensuales. Anteriormente, el cálculo era sobre la base de la recaudación del año anterior y los fondos llegaban corroídos por 13 meses de inflación. Tras la Enmienda Leça, como pasó a conocérsela, la Fundación tomó conciencia de que contaba con potencial financiero para volar más alto. Esto se hizo patente en 1989, cuando la nueva Constitución del Estado aumentó los fondos asignados a la Fundación al 1 % de los ingresos fiscales del estado paulista.
En la práctica, ¿cómo se materializó esa ambición?
Uno de los hitos fue la iniciativa de los proyectos temáticos. En los años 1960 y 1970, la FAPESP había tenido grandes proyectos, pero fueron puntuales, como el estudio de la biodiversidad amazónica que llevó a cabo el zoólogo Paulo Vanzolini [1924-2013] en la década de 1960. Los proyectos temáticos fueron la primera línea regular de grandes ayudas. En el seno de la FAPESP surgió un debate sobre si valía la pena darle tanto dinero a las humanidades: una cosa era conceder becas de maestría y otra muy distinta aprobar el
presupuesto de un proyecto temático. El mérito fue de Fava de Moraes, quien fue muy firme realmente. Uno de los primeros proyectos temáticos de humanidades fue del cineasta Jean-Claude Bernardet, de la USP, cuyo producto fue una película. Yo fui el coordinador del área de filosofía hasta 1989. Martins Rodrigues se fue y Fava de Moraes me invitó a asumir como coordinador adjunto. Hasta 1989, los coordinadores de área asistían a la FAPESP una vez por semana y no mantenían ninguna relación orgánica con la Fundación. Cuando Fava de Moraes creó la figura de los coordinadores adjuntos, éstos pasaron a efectuar la mediación entre los coordinadores de área y el director científico. En 1993, José Fernando Perez asumió la dirección científica, me pidió que continuara y acepté.
En 1997 se alejó de la FAPESP para pasar una temporada en Francia, pero al volver al país regresó a la Fundación. ¿Cómo se dio este retorno? Pasé dos años en París como investigador visitante en la École Normale Supérieure y como docente en la Universidad París 7, y durante ese tiempo me reemplazó en la Fundación la antropóloga Paula Montero.
Cuando regresé, a principios de 1999, me convocaron para que trabajara con ella, porque ya eran necesarios dos coordinadores adjuntos en el área de humanidades. Perez tenía una dinámica creativa propia y reestructuró la dirección científica. Amplió la cantidad de coordinadores adjuntos y cada semana nos reuníamos durante dos o tres horas en una mesa redonda para hablar de lo que estaba ocurriendo. Muchos de los programas de la FAPESP fueron alumbrados en el marco de aquellas reuniones. La efervescencia de la época de Perez tuvo mucho que ver con ese diálogo entre la gente de todas las áreas. Eso alcanzó una escala aún mayor cuando Carlos Henrique de Brito Cruz asumió la dirección científica. Una vez al mes, los 15 coordinadores adjuntos se reunían y conversaban toda una tarde.
¿Con cuántos directores científicos trabajó?
Uno de los primeros proyectos temáticos del área de humanidades fue el del cineasta
Jean-Claude Bernardet, de la USP, que resultó en una película
Fueron cuatro. La última administración, de Luiz Eugênio Mello, quedó muy comprometida debido a la pandemia, pero él hizo milagros. Me reemplazó en la coordinación adjunta por Ângela Alonso, pero solo la conoció en persona al final de su mandato. Mantuvo la dirección científica funcionando e hizo cosas importantes, como el esfuerzo para generar investigaciones sobre el covid-19 y los primeros proyectos del Programa Generación, dirigido a los investigadores más jóvenes, que aún no tenían empleo. También impulsó la adopción de políticas de inclusión y equidad. La gestión de Fava de Moraes le imprimió a la FAPESP ambiciones mayores y creó una estructura institucional para que la Fundación trabajase de forma creativa. Perez sacó provecho de ello gracias a su personalidad. Era el entusiasmo en persona. Cuando Brito Cruz asumió el cargo, ya había una cantidad enorme de programas con cuatro o cinco años de antigüedad. Por su propia personalidad, racional y sistemática, Brito Cruz también impuso un orden a las cosas, las formalizó, vio lo que funcionaba y lo que no. Intensificó y perfeccionó los programas existentes y le abrió la puerta a un arduo esfuerzo de internacionalización de la investigación científica paulista.
¿Cuál fue su aporte a la implementación del Programa de Educación Pública?
Una de las revoluciones que encaró Perez
fueron los programas de investigación tecnológica, principalmente en colaboración con empresas. Pero tuvo el acierto de tener en cuenta a la investigación aplicada en un sentido amplio. La investigación en el campo de las humanidades puede aplicarse y llevar a la formulación y a la puesta en marcha de políticas públicas. La idea de Perez era que cuando se trata de investigación aplicada, se necesita tener un socio que potencialmente vaya a utilizarla. De ahí surgió la idea de empezar por la educación pública, haciendo investigaciones en colaboración con las escuelas públicas. Convocamos a Maria Malta Campos, de la PUC-SP y la Fundación Carlos Chagas para que nos asesorara. Durante un tiempo coordiné el proyecto y luego le pasé la posta a Marilia Sposito. Como funcionó, hubo demanda, colaboraciones, de todo. Y después se lanzó el Programa de Políticas Públicas.
¿Cómo surgió la revista Pesquisa FAPESP, de la que usted sería coordinador científico entre 2001 y 2022? El proyecto surgió de una charla entre Perez y quien entonces era la directora de redacción, Mariluce Moura. Yo me subí al tren ya en marcha, porque cuando surgió la idea me encontraba en París. Desde un principio, el objetivo fue hacer una revista de divulgación, no de la FAPESP, sino de la ciencia brasileña y, en particular, la ciencia producida en São Paulo. En segundo lugar, tenía que ser un medio de carácter periodístico y orientado por científicos. Para ello fue fundamental que haya sido un proyecto vinculado a la Dirección Científica. Esto permitió la creación de estándares que garantizaron la calidad que la revista fue desarrollando.
¿Se refiere, por ejemplo, a que la revista cuente con un Comité Científico integrado por coordinadores de área y adjuntos de la Dirección Científica? Desde el principio, los artículos de la revista eran leídos por los coordinadores de las áreas temáticas abordadas. La idea era que mantener un equilibrio entre el lenguaje periodístico y el rigor científico. Por un lado, hubo quienes dijeron que la revista no era lo suficiente rigurosa desde un punto de vista científico. Y por otro, que planteaba temas difíciles de entender para el público lego. Las críticas de unos y otros nos hicieron pensar que la revista iba por el camino correcto, el camino del medio.
La política de buenas prácticas científicas debe ser pedagógica, pero una manera de educar es no dejar que las conductas equivocadas queden impunes
que se mantiene hasta los días actuales en la página web de la FAPESP. Luego, Brito Cruz me pidió que redactara un anteproyecto de un código de buenas prácticas. Pasé seis meses dedicado a esa tarea. Discutí el borrador con Celso Lafer, por entonces presidente de la FAPESP, quien me proporcionó el sostén jurídico necesario. Así salió la segunda versión, que Brito Cruz hizo circular entre prorrectores y sociedades científicas. Llevamos a cabo una consulta amplia y lo publicamos a finales de 2011. Diez años después de la publicación del código, todas las universidades públicas paulistas ya tenían sus propias comisiones de buenas prácticas.
En 2001, usted y el profesor Perez escribieron un artículo sobre los conflictos de intereses en la investigación científica. ¿Eso marcó el inicio del debate que desembocaría en el Código de Buenas Prácticas Científicas, una década más tarde?
Fue algo puntual. La FAPESP no contaba con una política de conflicto de intereses porque nunca se había topado con un problema serio al respecto. Y hubo un problema grave con un proyecto de un investigador para evaluar los riesgos del amianto o asbesto para la salud humana. Se invirtió mucho dinero y los resultados fueron favorables al amianto. Entonces, salió a la luz que el investigador en cuestión estaba vinculado a una empresa productora de amianto.
¿Y cómo surgió el Código de Buenas Prácticas Científicas?
Fue algo que se me ocurrió de repente. En septiembre de 2010, me había sometido a una cirugía de apéndice en Río de Janeiro y me estaba recuperando, cuando recibí un pedido de Brito Cruz para que estudiara lo que existía en el mundo en materia de buenas prácticas. Me aboqué a ese estudio, que dio lugar a un texto, a principios de 2011,
Después usted empezó a realizar un seguimiento de los casos de mala conducta que llegaban a la Fundación. Siempre insistí, y Brito Cruz me dio todo su apoyo, en que el eje principal de la política de buenas prácticas debe ser pedagógico. Pero una de las maneras de educar es no dejar que las conductas equivocadas queden impunes. Es necesario contar con un sistema riguroso y justo de recepción de denuncias y de investigación y transparencia en los resultados. Esto cuesta bastante trabajo. Cuando se recibe una denuncia, debe garantizarse un tiempo para la defensa. Son las propias instituciones las que están en condiciones de averiguar lo que sucede en sus dependencias. Ellas pueden hacerlo de manera imparcial y objetiva, pero existen situaciones en las que se dejan llevar por el corporativismo. En estos casos, debe rechazarse la averiguación de la institución y se genera una crisis política. Me ocupé de ello desde 2011 hasta 2023. En su mayoría los casos no dieron problemas, pero los pocos que sí lo hicieron fueron difíciles.
¿Actualmente se reparte entre São Paulo y Río de Janeiro?
Así es. Soy profesor sénior en la USP y dirijo trabajos de posgrado en filosofía. Además, soy docente colaborador en la UFRJ, donde participo en seminarios e imparto cursos libres. Como ya estoy jubilado, ahora tengo más tiempo para dedicarme a la escritura académica. En los últimos cinco años me he dedicado a estudiar el pensamiento de Aristóteles y he publicado algunos artículos sobre el tema. Pero no tengo prisa. En el campo de la filosofía, la producción teórica es una tarea que requiere paciencia. l
Las redes que vinculan a universidades y empresas

Un estudio mapea las actividades de 240 laboratorios académicos brasileños para comprender cómo interactúan con el sector industrial
FABRÍCIO MARQUES
Cómo se establecen las relaciones entre las universidades y las empresas de Brasil para generar conocimiento?
Una dupla de investigadores de la Facultad de Economía, Administración y Contabilidad de Ribeirão Preto de la Universidad de São Paulo (FEARP-USP) se propuso responder esta pregunta analizando qué factores estaban asociados a la interacción entre empresas y 240 laboratorios de universidades públicas del estado de São Paulo. Algunas de las conclusiones de ese estudio, publicado en diciembre de 2024 en la revista Science and Public Policy, confirmaron los resultados de trabajos similares realizados en otros países: en comparación con los laboratorios menos vinculados con empresas, los que están más comprometidos se destacan por su capacidad de prospección y atracción de colaboradores del sector privado, disponen de equipamientos avanzados y poseen más investigadores permanentes

Laboratorio de Nuevos Materiales y Dispositivos de la Unesp en Bauru, São Paulo: colaboración con una empresa extranjera
para dar soporte a proyectos conjuntos. También cuentan con un mayor respaldo de sus departamentos para hacer viables las cooperaciones. Pero hay peculiaridades brasileñas. Una de ellas consiste en que aquí, el nivel sénior en la carrera docente no está relacionado con una mayor interacción con la industria, un patrón que suele observarse en Estados Unidos y Europa, y que se explica por la formación paulatina de redes de colaboración a lo largo de la carrera docente. De los 240 laboratorios paulistas analizados, tan solo 55 estaban dirigidos por profesores titulares, el nivel más alto en la carrera académica pública, mientras que 114 estaban bajo el mando de profesores libre docentes o asociados y 71 bajo el liderazgo de profesores adjuntos. Según el coordinador del estudio, Alexandre Dias, investigador de la FEA-RP-USP, este resultado pone de relieve las marcadas diferencias entre el sistema brasileño de ciencia, tecnología e innovación y los de países más desarrollados.
“En las universidades públicas brasileñas, la enseñanza, la investigación y la extensión son indisociables y además, los académicos del nivel más alto de la carrera suelen estar profundamente implicados en las actividades de gestión de sus unidades. La predominancia de la financiación pública de la investigación, el sistema de recompensas y los criterios por los que se evalúa a los docentes para su progresión en la carrera no contribuyen a un desempeño individual alineado con la interacción con el sector industrial”, dice el investigador, quien llevó a cabo el estudio junto a Leticia Ayumi Kubo Dantas, a quien dirigió en su tesina de maestría, defendida en 2023. Ambos son miembros del Núcleo de Investigaciones en Innovación, Gestión Tecnológica y Competitividad de la FEA-RP-USP. El objetivo principal del estudio consistió en analizar el grado de “compromiso académico” de los laboratorios de investigación del país. Este concepto, difundido a partir de 2013 por Markus Perkmann, de la Escuela de Negocios del Imperial College de Londres, en el Reino Unido, aglutina a un conjunto de actividades formales e informales que modulan la interacción entre las universidades y el ambiente empresarial. “Durante mucho tiempo, los investigadores trataron de entender los determinantes de la comercialización de tecnologías y de los emprendimientos académicos como fenómenos para analizar la interacción universidad-empresa. Solo en la última década ha crecido el interés por investigar también otros canales a través de los cuales se establecen los vínculos entre universidad y empresa”, explica Dias.
Se analizaron datos de laboratorio de siete instituciones –la Universidade Estadual Paulista (Unesp), la Universidad de Campinas (Unicamp), la Universidad de São Paulo (USP), las universidades federales de São Paulo (Unifesp), de São Carlos (UFSCar) y del ABC (UFABC) y el Instituto Tecnológico de Aeronáutica (ITA)– cuyos directivos aceptaron responder un cuestionario en línea. En cuanto a las áreas del conocimiento, un 20 % de los laboratorios era de ingenierías, un 15,8 % de ciencias de la salud, un 14,5 % de ciencias biológicas, un 12,5 % de ciencias exactas y de la Tierra, un 9,6 % de ciencias agrarias y un 27,5 % operaba en múltiples disciplinas. El análisis permitió discriminar las instalaciones de investigación en tres categorías. El conglomerado más numeroso, con 112 laboratorios, registraba una implicación mínima y esporádica con empresas. El segundo agrupaba a 84 laboratorios y mostraba un compromiso parcial con la iniciativa privada. El tercer grupo, con 44 laboratorios, se destacaba por interactuar con las empresas a través de diversos canales: investigaciones conjuntas (un 52,3 %), contratos de investigación (un 40,9 %) y ampliación de las instalaciones con fondos procedentes inversores privados (un 34,1 %). También
participaban en actividades de interacción informales, tales como capacitación de estudiantes de posgrado en proyectos industriales (un 15,9 %) y servicios de consultoría (un 22,7 %).
El valor económico de los equipos de los laboratorios altamente comprometidos y su número de investigadores permanentes resultaron ser tres veces superiores que los de las instalaciones que interactuaban mínimamente con empresas. El respaldo de los departamentos a los que los laboratorios están vinculados fue mayor entre los de alta implicación: el 32 % declaró recibir apoyo suficiente, frente a un 13,4 % en los de compromiso mínimo y un 22,6 % en los da la categoría intermedia. Según Leticia Dantas, la autora principal del estudio, la investigación muestra la importancia de fortalecer los laboratorios universitarios, asegurando una estructura sólida y equipos más grandes. “Ello no solo aumenta el compromiso académico, sino que también vuelve a los laboratorios más atractivos para las colaboraciones con el sector industrial, ampliando el impacto de la investigación en el sector productivo”, dice. El economista Eduardo da Motta e Albuquerque, de la Universidad Federal de Minas Gerais (UFMG) e investigador del Centro de Desarrollo y Planificación Regional (Cedeplar), quien no participó en el estudio, coincide en que una de las contribuciones del artículo consiste en demostrar la importancia del fortalecimiento de los laboratorios de investigación del sistema universitario brasileño. “La interacción atrae inversiones a los laboratorios y esto repercute tanto en la calidad de la investigación, al llevar a la universidad nuevos temas de estudio, como en la enseñanza, al aproximar a docentes y alumnos a las demandas de la sociedad”, dice Da Motta e Albuquerque, estudioso de la formación de redes de innovación y de vínculos creados entre universidades y empresas.
“También sería interesante ahondar en las investigaciones para saber qué segmentos de la industria interactúan más con esos laboratorios”, dice. El investigador supone que hay grandes interacciones con el sector agrícola, por la importancia económica que tiene este segmento en Brasil, pero actividades mínimas con empresas farmacéuticas, que concentran sus investigaciones en sus matrices en el exterior. Da Motta e Albuquerque ve una señal de alarma en un resultado que aparece en el artículo, pues no se detectó correlación entre el compromiso de los laboratorios con las empresas y el apoyo de los Núcleos de Innovaciones Tecnológicas, oficinas creadas en virtud de la Ley de Innovación, de 2004, en las instituciones públicas de ciencia y tecnología para gestionar la propiedad
intelectual y apoyar la interacción entre universidades y empresas. “El país ha hecho una gran inversión para la creación de estos centros y tal vez sea el momento de revaluar su operación”, dice. Para crecer, la relación entre universidades y empresas debe superar una serie de obstáculos, a juicio del químico Elson Longo, profesor emérito de la Universidad Federal de São Carlos (UFSCar) y director del Centro para el Desarrollo de Materiales Funcionales, uno de los Centros de Investigación, Innovación y Difusión (Cepid) financiados por la FAPESP. “Parte de la interacción existente es fruto de los servicios de consultoría que los investigadores prestan a las empresas. La cooperación debe ser más ambiciosa para traducirse en nuevos conocimientos y productos innovadores”, dice, citando como ejemplo proyectos desarrollados por el Cepid durante las últimas décadas con la industria siderúrgica y de cerámica y revestimientos, que ha llevado a introducir cambios en los métodos de producción y a un aumento de la productividad. Actualmente, la institución mantiene colaboraciones para el desarrollo de insumos destinados a fábricas de cosméticos. También menciona el escaso interés de las multinacionales por colaborar con grupos brasileños, que prefieren, por regla general, utilizar la estructura de Investigación y Desarrollo (I&D) de sus casas matrices.
Emilio Carlos Nelli Silva, del Departamento de Mecatrónica y Sistemas Mecánicos de la Escuela Politécnica de la USP [Poli-USP], ve diferencias notorias entre la interacción de universidades y empresas en Brasil y en otros países. “En Estados Unidos, el vínculo es más fluido, porque las empresas contratan a muchos doctores para trabajar en sus centros de I&D y es con ellos que se concreta la interlocución con los grupos de las universidades. Aquí en Brasil, como hay pocos doctores trabajando en las empresas, son otros los actores que intervienen en el diálogo y a veces no se comprende que el trabajo de investigación puede enfrentar obstáculos”, afirma.
Otra diferencia tiene que ver con la financiación. “Aquí no tenemos una cultura de inversión de capi-
Laboratorio de inspección del Centro de Investigaciones de Petrobras: la legislación impulsa las colaboraciones

Los laboratorios comprometidos interactúan con las empresas a través de múltiples canales
tal de riesgo en investigaciones prometedoras. Pero en algunas áreas, tales como petróleo y gas, y electricidad, las empresas tienen la obligación legal de invertir en I&D y esto crea buenas oportunidades de investigación en colaboración”, sostiene. Actualmente, Nelli Silva es vicedirector del programa de ingeniería del Centro de Investigaciones para la Innovación en Gases de Efecto Invernadero (RCGI), uno de los Centros de Investigación Aplicada/ Centros de Investigaciones en Ingeniería financiados por la FAPESP en colaboración con empresas, en este caso, Shell. Este programa de la Fundación ofrece fondos no reembolsables para proyectos de empresas, y les exige que aporten una contrapartida igual o superior a la inversión pública; y cuenta con la participación de grupos de investigación de excelencia de las universidades. “Los centros crean un nuevo paradigma para la colaboración entre universidades y empresas y aportan beneficios a la sociedad que pueden percibirse fácilmente”.
Ajuicio del físico Carlos Frederico de Oliveira Graeff, de la Facultad de Ciencias de la Unesp, en su campus de la localidad de Bauru, la relación entre las universidades y la industria ha mejorado, pero siguen existiendo asimetrías. “La industria no siempre encuentra en el mundo académico las soluciones a sus problemas, ni tampoco los investigadores empeñados en establecer interacciones encuentran siempre empresas interesadas en su capacidad”, dice. De Oliveira Graeff coordina el Laboratorio de Nuevos Materiales y Dispositivos, una de las instalaciones de investigación participantes en el estudio de la FEA-RP-USP, que fue clasificada entre los laboratorios con alto nivel de vinculación. El laboratorio, que actualmente busca nuevos materiales para su aplicación en dispositivos electrónicos, tales como células solares y transistores, coopera con dos empresas. Una de ellas es una startup con sede en Singapur, que busca

darle un uso a los residuos de las industrias que utilizan moscas como materia prima para producir proteínas animales. El reto pasa por aprovechar el gran volumen de exoesqueletos de moscas desechados, que son ricos en un tipo de biomelécula denominada melanina, un compuesto para el que el grupo de D e Oliveira Graeff estudia posibles aplicaciones en baterías y capacitores, porque tiene potencial para almacenar energía. La otra es una empresa nacional, a la que el laboratorio le ha transferido tecnología útil para la producción de células solares de perovskita, desarrollada en un proyecto apoyado por Petrobras.
Según él, las interacciones podrían ser más productivas si en el país hubiera mayor disponibilidad de plataformas multiusuarios y centros analíticos a los que los investigadores de las empresas pudieran recurrir. “Las startups necesitan equipos avanzados para desarrollar productos y a menudo no cuentan con los recursos necesarios para adquirirlos”, afirma De Oliveira Graeff, quien fue coordinador de Programas Estratégicos e Infraestructura de la Dirección Científica de la FAPESP. El físico también considera importante ampliar las actividades de las instituciones de investigación que trabajan con aplicaciones con un nivel de madurez tecnológica intermedio, que todavía requieren esfuerzos e inversiones para obtener un producto comercial. “La estatal Embrapa [Empresa Brasileña de Investigación Agropecuaria] desempeña bien este papel en el agronegocio y el Senai [Servicio Nacional de Aprendizaje Industrial], con sus Institutos de Innovación, también lo ha hecho en distintos sectores de la industria”, dice. También destaca el modelo de los Centros de Ciencia para el Desarrollo (CCD) de la FAPESP, que aglutinan a investigadores de institutos estaduales, universidades, empresas y organismos de gobierno en busca de soluciones para problemas de la sociedad, de la productividad agrícola y de la movilidad urbana. “Estos centros están logrando movilizar el sistema en torno de investigaciones orientadas a misiones”, añade. l
Laboratorio de Células de Combustible y Conversión Reactiva, en la Poli-USP: innovación y gases de efecto invernadero
Buenos con la pelota y con razón

El remate de volea del atacante Richarlison que definió el marcador del partido contra Serbia en el Mundial 2022
Los jugadores de los principales equipos del fútbol brasileño tienen mejor memoria, capacidad de planificación y ductilidad mental que las personas de su misma edad que no son atletas
GISELLE SOARES
El jueves 24 de noviembre de 2022, los brasileños seguían con atención el debut de su selección de fútbol contra Serbia, en la Copa Mundial de Catar. Más de dos años después, quizá haya pocos que recuerden ese partido, que finalizó con el triunfo de Brasil por 2 a 0, pero el gol de volea del delantero Richarlison aún está presente en la memoria de los aficionados. Con su zurda, amortiguó la pelota tras un pase de tres dedos combado enviado por Vinicius Junior y, con un salto coreográfico, clavó un derechazo certero en el arco contrario. La instantánea de ese momento, elegido como el mejor gol de la competencia por votación popular de la Federación Internacional de F útbol Asociado (Fifa), ilustra el perfil del atleta en una red social.
Jugadas como ésa, que son un deleite incluso para quienes no siguen este deporte, no dependen solamente de la suerte o de una habilidad física extraordinaria. Además de un profundo conocimiento técnico del juego, los atletas que las ejecutan poseen una capacidad para procesar información y tomar decisiones bajo presión superior a la de otros individuos de su misma edad y nivel educativo, según lo sugiere un estudio publicado en enero en la revista científica Proceedings of the National Academy of Sciences (PNAS).
En dicho estudio, un grupo internacional de investigadores que contó con la participación del brasileño Alberto Filgueiras, de la Universidad Central de Queensland, en Australia, ahondó en los rasgos de la personalidad y las habilidades cognitivas de 153 jugadores de fútbol
de equipos de la serie A del Campeonato Brasileño y de 51 futbolistas del campeonato de la máxima categoría de Suecia: la edad de los deportistas oscilaba entre los 17 y los 35 años. Según los autores éste es, hasta la fecha, el estudio que ha realizado la más exhaustiva evaluación psicológica y cognitiva del mayor número de jugadores de élite. Los estudios anteriores incluían a pocos deportistas en la cumbre de sus carreras y tan solo una parte de las pruebas.
En el trabajo publicado en PNAS, cada futbolista fue sometido a tres baterías de pruebas neuropsicológicas. Una de ellas definió los rasgos de la personalidad del participante, mientras que las otras dos, una de las cuales desarrollada por Filgueiras y sus colaboradores y publicada en 2023 en la revista BMC Psychology, midieron sus habilidades cognitivas: características tales como la creatividad, la flexibilidad mental y la memoria de corto plazo, así como la capacidad de mantener la atención, planificar y resolver problemas e inhibir respuestas inadecuadas. En todos los test cognitivos, los jugadores obtuvieron un puntaje promedio superior al valor de referencia para la población del mismo rango de edades o a la de los miembros del grupo de control, integrado por 124 brasileños del mismo grupo etario y nivel educativo que no eran jugadores de fútbol.
A la superioridad de los futbolistas en cuanto a estas características cognitivas, importantes para reaccionar rápidamente, cambiar de estrategia o crear jugadas en el fragor del partido, se le añadieron rasgos de la personalidad que también favorecen la confianza en sí mismos y el trabajo
en equipo. Los atletas mostraban niveles más altos de extroversión, de apertura a nuevas experiencias y de consciencia de la responsabilidad (un rasgo asociado a la ambición, la autodisciplina, la focalización en los objetivos y al autocontrol) que los participantes del grupo de control. Estos últimos, a su vez, obtuvieron mayor puntaje que los deportistas en características como la condescendencia y el neuroticismo, cierta tendencia a experimentar emociones negativas, tales como ansiedad, ira, frustración y culpa.
Estos resultados, según los investigadores, indican que los futbolistas de élite tienden a ser más sociables, disciplinados y adaptables que los miembros del grupo de control utilizado para la comparación. Los que no son deportistas, por el contrario, muestran una mayor inestabilidad emocional y son más propensos que los jugadores a seguir las normas sociales sin cuestionarlas.
En una fase posterior del estudio, los autores utilizaron las características de la personalidad y el desempeño cognitivo de todos los participantes para enseñarles a dos programas de inteligencia artificial a distinguir a los jugadores de alto rendimiento de los que no son deportistas. También utilizaron uno de estos programas para identificar qué rasgos de la personalidad y habilidades cognitivas contribuían más para poder reconocer a quienes eran futbolistas de primera línea. A continuación, y basándose tan solo en los datos de la personalidad y en las pruebas cognitivas, le solicitaron al programa que señalara a los que eran futbolistas de élite: el algoritmo registró un 97 % de acierto en sus clasificaciones.
Como etapa final de la investigación, para comprobar si estas características permitían predecir el rendimiento de los jugadores en la cancha, los investigadores compararon el perfil psicológico y las habilidades cognitivas de los futbolistas brasileños con su rendimiento (goles, remates al arco, pases y gambetas) en la temporada 2021 del campeonato brasileño, la Copa Sudamericana y la Copa Libertadores de América; los suecos fueron excluidos de esta etapa por falta de datos. Los jugadores con puntaje más alto en las escalas de responsabilidad y apertura a
nuevas experiencias convirtieron más goles, mientras que los tenían mejor memoria acumularon más regates exitosos.
“Nuestros resultados muestran que las habilidades cognitivas, tales como la planificación y la flexibilidad mental, están directamente relacionadas con el rendimiento futbolístico, e influyen en diversas métricas, como los goles, regates y asistencias”, le dijo a Pesquisa FAPESP el psicólogo y neurocientífico italiano Leonardo Bonetti, docente de la Universidad de Aarhus, en Dinamarca, e investigador de la Universidad de Oxford, en el Reino Unido, autor principal del estudio publicado en PNAS. Graduado en guitarra clásica y psicología y con doctorado en neurociencias, Bonetti estudia los mecanismos cerebrales de la memoria y las capacidades cognitivas.
“Nuestro artículo tiene por objeto identificar un perfil cognitivo y de la personalidad típico de los deportistas de élite”, explica Filgueiras, coautor del estudio. “Hasta ahora, sabíamos que los atletas de élite poseían mejores capacidades físicas y conocimientos técnico-tácticos que el resto de la población, pero tropezábamos con el estereotipo del deportista tonto, que solo tiene habilidades físicas”, dice. Ahora, los investigadores demostraron que sus cualidades mentales, especialmente la personalidad y las funciones ejecutivas, son diferentes a las de la población en general. “Sería una especie de inteligencia deportiva, centrada en la resolución
de problemas y en la toma de decisiones eficaces dentro del campo de fútbol”. Un hallazgo que llamó la atención de los investigadores fue la escasa condescendencia de los deportistas de élite, es decir, cierta tendencia a cuestionar las órdenes directas. “Ello nos lleva a reflexionar sobre el rol de los técnicos, que suelen dar muchas instrucciones y órdenes. Curiosamente, estos deportistas no obedecen automáticamente. Las cuestionan y hay que convencerlos de que las consignas tienen sentido antes de seguirlas”, dice Filgueiras. “No estamos hablando de impulsividad, sino de autonomía y confianza en las propias decisiones. Si un entrenador dice ‘hazlo de esta manera’, la respuesta probablemente será: ‘¿Por qué? Parece haber otra manera mejor’”, añade el psicólogo brasileño. Este rasgo, según los investigadores, puede estar asociado a lo que popularmente se conoce como “inteligencia de juego”, una habilidad que no solo involucra la percepción del entorno, sino también la adaptación a los cambios repentinos manteniendo un desempeño estable. Ricardo Picoli, psicólogo del Esporte Clube Bahia y coordinador de la Especialización en Psicología del Ejercicio y del Deporte de la Universidad Federal de São Carlos (UFSCar), afirma que esta capacidad es de especial importancia en situaciones prácticas, tales como las alteraciones del esquema táctico o los cambios de escenario durante el partido.
Balón en disputa entre Felipe Luis, de Flamengo, y Carlos Palacios, de Internacional, en un partido de la serie A del Campeonato Brasileño de 2021

El entrenador Janne Andersson (de blanco) imparte una charla orientativa a los jugadores de la selección sueca durante un entrenamiento en España, en 2021 2

“Los futbolistas con esta capacidad más desarrollada son capaces de evaluar mejor sus oportunidades de carrera a largo plazo, evitando elecciones que pueden parecer atractivas en lo inmediato, pero perjudiciales en el futuro”, añade Picoli, quien no participó en el estudio.
Los autores del artículo publicado en PNAS sostienen que los resultados podrían servirles a los clubes y a las comisiones técnicas para perfeccionar los métodos de entrenamiento incorporando pruebas cognitivas y psicológicas para el análisis y el desarrollo de los jugadores.
“La evaluación de estas habilidades permite adoptar un enfoque más minucioso a la hora de seleccionar a los futbolistas, definir sus funciones dentro del equipo y perfeccionar las estrategias de entrenamiento”, afirma Bonetti. “El éxito en el fútbol no depende solamente de los atributos físicos, sino también de los rasgos psicológicos y las capacidades cognitivas, que desempeñan un rol esencial en el rendimiento de los futbolistas de alto nivel”.
El empleo de evaluaciones psicológicas para tratar de entender y maximizar el rendimiento de los deportistas no es una novedad. En las últimas décadas, la psicología del deporte ha tratado de mapear cómo influyen los factores psicológicos en el rendimiento de los atletas y cómo pueden aplicarse para optimizar su entrenamiento, según lo explica la psicóloga del deporte Kátia Rubio, profesora
asociada sénior de la Escuela de Educación Física y Deporte de la Universidad de São Paulo (EEFE-USP) y coordinadora del Grupo de Estudios Olímpicos (GEO-USP), en otro estudio más antiguo, publicado en 2007 en Revista Brasileira de Psicologia do Esporte
En el deporte de alto rendimiento, la identificación de estos factores se hacía a través del psicodiagnóstico, que evalúa las características de la personalidad y el estado emocional del deportista en los entrenamientos y competencias con la intención de encontrar estrategias de intervención que alivien los síntomas de sufrimiento y mejoren el bienestar emocional. “Con el resultado del diagnóstico es posible arribar a conclusiones sobre las particularidades personales o grupales que sirven de apoyo a la selección de nuevos deportistas para un equipo, para modificar el entrenamiento, personalizar la preparación técnico-táctica, elegir la estrategia y la táctica de conducta en una competencia y optimizar los estados psíquicos”, escribe la investigadora en el artículo de 2007. En una entrevista concedida a Pesquisa FAPESP, Rubio, quien no participó del estudio dirigido por Bonetti, afirma que la búsqueda de perfiles psicológicos en el deporte comenzó entre las décadas
de 1960 y 1970, cuando la psicología intentaba afianzarse como ciencia a través de la psicometría. “En el contexto de la Guerra Fría, el deporte era visto como una forma de demostrar poder y había un gran interés en hacerlo más previsible, incluyendo la tentativa de identificar perfiles de atletas de élite”, recuerda la investigadora. “Sin embargo, más de cinco décadas después, aún no existe un modelo definitivo que sea capaz de prever, en forma categórica, quién será un campeón. El rendimiento deportivo obedece a múltiples factores, y está sujeto a la influencia de aspectos psicológicos, ambientales y sociales”, pondera. De hecho, esta es una laguna que los autores del trabajo publicado en PNAS pretenden subsanar, ampliando las investigaciones a las divisiones inferiores del deporte. Con la coordinación de Filgueiras, se han propuesto investigar cómo se desarrollan los rasgos cognitivos y, de ser posible, predecir cuáles deportistas tienen más probabilidades de llegar a la élite. “También pretendemos explorar la relación entre las capacidades cognitivas, las posiciones en el campo de juego y el equilibrio del equipo, ya que un plantel no necesita jugadores con un único tipo de perfil cognitivo para ser exitoso”, dice Bonetti. l
Los artículos científicos consultados para la elaboración de este reportaje aparecen listados en la versión online

En desafío a las convicciones
Lámina del libro
Tabulae anatomicae, publicado en 1552 por el anatomista italiano Bartolomeo Eustachio (c 1500-1574), en donde pueden verse el corazón y los grandes vasos sanguíneos del cuerpo humano
“ENo solo los nervios, sino que también los vasos sanguíneos liberan compuestos que modulan los latidos cardíacos y la presión arterial
RICARDO ZORZETTO
stamos desafiando un canon”. Con esta afirmación audaz y resuelta, el médico y farmacólogo Gilberto De Nucci cerraba el almuerzo en un restaurante italiano de la ciudad de São Paulo en octubre pasado. La charla había estado repleta de información reciente al respecto de la bioquímica y la fisiología del corazón y los vasos sanguíneos y requería tiempo para poder digerirla. Durante más de una hora, el investigador había repasado los hallazgos de su grupo en la Universidad de Campinas (Unicamp), que apu ntan a cambiar la comprensión acerca de cómo regula el organismo los latidos cardíacos, la presión arterial, la erección del pene y la eyaculación.
Los resultados del equipo de De Nucci, descritos en más de 30 artículos científicos publicados desde 2020 en adelante, el último en febrero en la revista Life Sciences, sugieren que el revestimiento interno de los vasos sanguíneos y las cavidades cardíacas es el principal productor de una familia de compuestos que controlan desde la contracción de las arterias y las venas hasta el ritmo y la fuerza de los latidos del corazón. Hasta entonces, los cardiólogos y los fisiólogos atribuían la síntesis y la liberación de estos compuestos, conocidos con el nombre de catecolaminas, tan solo a determinados conjuntos de nervios.
Las catecolaminas más conocidas son tres: dopamina, noradrenalina y adrenalina. Fueron identificadas entre finales del siglo XIX y mediados del XX y se producen en diferentes zonas del cerebro y del sistema nervioso central, donde funcionan como neurotransmisores, enviando órdenes
de una célula a otra. En situaciones de peligro real, como un asalto a mano armada, o imaginario –el temor a sufrir un asalto en la calle– son sintetizadas y liberadas por fibras del sistema nervioso simpático, que salen de las secciones torácica y lumbar de la médula espinal y llegan a distintos órganos y tejidos. En estas situaciones, las catecolaminas, sobre todo la noradrenalina, preparan al cuerpo para luchar o huir. Hacen que el corazón lata más fuerte y deprisa, que el hígado libere glucosa, que los vasos sanguíneos se contraigan y que la presión arterial aumente, facilitando que la sangre y la energía lleguen a los músculos. En parte fue por casualidad que el grupo de la Unicamp encontró el camino hacia los hallazgos que ahora ponen en tela de juicio este canon de la fisiología cardiovascular. A mediados de 2010, cuando De Nucci conversaba con un zoólogo en Río de Janeiro, se sorprendió al enterarse que los reptiles habrían sido los primeros animales que desarrollaron penes y que la cópula de la víbora de cascabel austral (Crotalus durissus terrificus) podía prolongarse hasta 28 horas. Pocos años antes, había desarrollado un compuesto para el laboratorio Cristália, del interior de São Paulo, para tratar la disfunción eréctil: el lodeanfil, cuya denominación comercial es Helleva y tiene un efecto similar al sildenafil (Viagra). Esta información sobre las serpientes incitó su curiosidad, por lo que De Nucci resolvió investigar qué era lo que proporcionaba erecciones tan prolongadas. En los seres humanos, la erección depende de factores emocionales, del funcionamiento neuronal y de los vasos sanguíneos. Como respuesta a un estímulo sexual, los nervios que transmiten infor-
mación del cerebro al pene estimulan los vasos sanguíneos y producen óxido nítrico –monóxido de nitrógeno– (NO). Este compuesto, sintetizado por las células del endotelio, la capa que recubre internamente las venas y las arterias, desencadena reacciones químicas que llevan a la musculatura de los vasos a relajarse. El resultado: el pene recibe mayor irrigación sanguínea y se endurece. Al cabo de un cierto tiempo, las fibras del sistema nervioso simpático liberan catecolaminas –principalmente noradrenalina– que hacen que los músculos de los canales del aparato genital se contraigan, lo que provoca la eyaculación. Al mismo tiempo, las catecolaminas causan una constricción de los vasos sanguíneos del pene y el órgano se torna flácido. En un primer estudio, publicado en 2011 en la revista The Journal of Sexual Medicine, De Nucci constató que el mecanismo que producía la erección en la serpiente de cascabel era similar al de los humanos y otros mamíferos, dependiente del NO.
La contracción de los conductos del tracto genital, modulada por catecolaminas, provoca la eyaculación

La diferencia surgió en los experimentos que evaluaron la contracción de la musculatura de los vasos. En los mamíferos, la pérdida de la erección se desencadenaba mediante la liberación de catecolaminas desde las fibras del sistema nervioso simpático, que inducen a los músculos a contraerse y expulsar la sangre del pene. En la cascabel no.
En el caso de la serpiente, el estímulo para la contracción de la musculatura de los vasos sanguíneos –y la consecuente flacidez del pene– no emanaba del sistema nervioso simpático, como pudieron comprobar los investigadores al tratar el tejido con tetrodotoxina, un compuesto –una neurotoxina– extraído del pez globo. En los mamíferos, la tetrodotoxina bloquea la acción de los nervios y les impide liberar catecolaminas, lo que, en esta situación, mantendría el pene erguido. En la víbora de cascabel, sin embargo, los vasos sanguíneos se contraían, haciendo que se pierda la erección, incluso con los nervios bloqueados, tal como lo demostró el grupo en 2017, en un artículo publicado en la revista PLOS ONE. Esto indicaba que la orden para la contracción vascular procedía de otro lugar.
Utilizando anticuerpos, los investigadores localizaron en el endotelio del cuerpo cavernoso de la serpiente de cascabel –el cilindro de tejido eréctil en el interior del pene–, la enzima responsable de producir un precursor de la dopamina, una catecolamina también causante de la contracción muscular. “La capacidad de contracción desapareció cuando repetimos los experimentos luego de eliminar el endotelio del cuerpo cavernoso”, dijo De Nucci, quien también se desempeña como docente en la Universidad de São Paulo (USP), en el almuerzo de 2024.
Este mismo efecto se observó en las pruebas con el cuerpo cavernoso y la arteria aorta de la serpiente del maíz (Pantherophis guttatus), la yarará (Bothrops sp.) y la tortuga terrestre de patas rojas (Chelonoidis carbonaria). La capacidad de contraer la musculatura vascular desaparecía tras la eliminación del endotelio y, por consiguiente, de la dopamina.
Por entonces, los científicos creían que la síntesis de dopamina por el en -
dotelio era una característica peculiar de los reptiles. Habían buscado la enzima tirosina hidroxilasa, que genera el precursor de la dopamina, en el cuerpo cavernoso de monos titíes, pero no la encontraron –se encontraba solamente en los nervios simpático–, aunque unos años antes investigadores italianos habían detectado la producción de catecolaminas en células endoteliales de la aorta bovina cultivadas bajo condiciones especiales. El panorama empezó a modificarse cuando el farmacólogo José Britto Júnior se unió al grupo. En su entrevista de doctorado, en 2018, propuso: “¿Por qué no estudiamos los vasos del cordón umbilical humano? Es un tejido sin inervación y fácil de obtener, ya que se desecha tras el parto”. Desde los primeros ensayos, los investigadores notaron que la dopamina estaba en el endotelio de la arteria y la vena del cordón umbilical y que desaparecía cuando esta capa de células era eliminada. También observaron que el poder de esta catecolamina para inducir la contracción de la musculatura de los vasos sanguíneos aumentaba cuando, incluso con el revestimiento intacto, bloqueaban la síntesis de NO.
Este resultado, publicado en 2020 en la revista Pharmacology Research & Perspectives, propició un nuevo cambio de rumbo. En una reunión del grupo, el farmacólogo Edson Antunes, de la Unicamp, planteó la siguiente duda: “Si el endotelio produce NO y dopamina, ¿no se combinan?”. No se sabía, pero era posible. Más de dos décadas antes, un grupo de la Universidad Federico II, de Italia, había mezclado catecolaminas y NO en un laboratorio obteniendo un compuesto derivado, que se suponía que era tóxico. Por la misma época, investigadores de la Universidad Keio, en Japón, identificaron en el cerebro de ratas una forma de noradrenalina –6-nitronoradrenalina– que incorporaba el NO. De Nucci fue en busca de industrias químicas que sintetizaran este tipo de compuestos y encontró una en Canadá. Importó muestras de 6-nitrodopamina (6-ND), una combinación de dopamina y NO, que Britto y otros miembros del equipo utilizaron para calibrar el espectrómetro de masas, un instrumento que separa y cuantifica moléculas a partir de su masa atómica, y contrastarla con los compuestos extraídos del endotelio de los vasos sanguíneos umbilicales.
Vistas en detalle en otra lámina de Tabulae anatomicae: el interior de las cavidades cardíacas produce compuestos que controlan el ritmo y la potencia de bombeo de la sangre
Y entonces, ¡bingo! La 6-nitrodopamina estaba allí, tal como lo reveló el grupo en un artículo publicado en 2021 en la revista Life Sciences. Pero la concentración de 6-ND disminuía cuando los investigadores bloqueaban la síntesis de NO, señal de que este formaba parte de la vía bioquímica que la produce; más adelante el grupo comprobaría que ésta es la vía principal, responsable de un 60 % a un 70 % de la 6-ND liberada por el endotelio, y que hay otra.
“La idea de que las catecolaminas también son liberadas por los vasos sanguíneos es atractiva porque el endotelio está en contacto con la sangre y bien ubicado para percibir la señalización metabólica y los cambios en la tensión circulatoria”, le dijo a Pesquisa FAPESP el biólogo y fisiólogo Tobias Wang, de la Universidad de Aarhus, en Dinamarca, colaborador reciente del equipo de la Unicamp. “Como esta propuesta es provocadora, todavía se la ve con escepticismo”.
En las pruebas de contracción y relajación de los vasos sanguíneos, Britto Júnior observó que el efecto de la 6-ND contrastaba con el de la dopamina: mientras que ésta promovía la contracción, aquélla la bloqueaba. Al parecer, ambas compiten en los vasos para unirse a un mismo receptor de dopamina, el D2, que desencadena el efecto contráctil de la dopamina. Cuando la 6-ND se une allí, este efecto se bloquea.
“También es posible que la 6-ND se una al mismo receptor que la dopamina, pero en un lugar diferente, lo que explicaría la potenciación de los efectos de la dopamina en determinados casos”, propone la biomédica y farmacóloga Regina Markus, de la USP, quien no participó en los estudios.
Después de este hallazgo, el grupo de Campinas comenzó a medir el nivel de la 6-nitrodopamina y caracterizar su acción

en otros vasos y órganos de reptiles y mamíferos. Las comprobaciones con venas y arterias confirmaron el poder de la 6-ND para atenuar la contracción que dispara la dopamina. Experimentos con ratas anestesiadas también revelaron que ésta es producida en el interior de las cavidades cardíacas (aurículas y ventrículos) en mayor cantidad que las catecolaminas clásicas. La 6-ND también demostró ser entre 100 y 10.000 veces más potente que ellas.
En las aurículas, responsables del ritmo cardíaco, su presencia aumenta la frecuencia de contracción. En tanto, en los ventrículos, la potencia de bombeo sanguíneo. Su efecto también es mucho más prolongado: dura hasta una hora, mientras que el de las otras, utilizadas en casos de urgencia para tratar los paros cardíacos, desaparece en pocos minutos. “La 6-nitrodopamina”, dice Britto Júnior, “también potencia el efecto de las otras catecolaminas, lo que, en principio, podría posibilitar su uso en dosis más bajas que las actuales”. Para De Nucci, los resultados demuestran que los vasos sanguíneos y el corazón son capaces de autorregularse. De ser real este efecto, ayudaría a explicar por qué quienes son sometidos a un trasplante cardíaco y pulmonar logran mantener un ritmo cardíaco y una presión arterial similar a los de las personas sanas: en los trasplantes, la inervación de estos se suprime. “Mi impresión es que los efectos vasculares de la 6-nitrodopamina pueden influir en la autorregulación del flujo sanguíneo a nivel local y regional, actuando sobre los capilares, vasos sin inervación”, comenta el fisiólogo cardiovascular Ruy Campos
Júnior, de la Universidad Federal de São Paulo (Unifesp), quien investiga el papel de la hipertensión en las enfermedades renales y no participó en los estudios. “El reto radica en ir más allá de los experimentos y entender su rol en el control del corazón en condiciones fisiológicas”, añade.
“En efecto, los resultados indican que estas nitrocatecolaminas están presentes en las paredes vasculares y pueden desempeñar algún rol, pero aún no sabemos hasta qué punto son importantes para el control de la relajación de los vasos sanguíneos in vivo”, analiza el cardiólogo Francisco Laurindo, del Instituto del Corazón (InCor) de la USP, experto en el funcionamiento del sistema vascular. La 6-nitrodopamina también parece tener un efecto importante sobre el sistema genitourinario. Se produce en los conductos deferentes, que transportan el esperma desde los testículos a la uretra, y en la vesícula seminal, que produce el semen. En estas dos estructuras, la 6-ND provoca las contracciones necesarias para la eyaculación. En tanto, en el cuerpo cavernoso, funciona como un potente relajante vascular. “Estamos demostrando la existencia de un nuevo mecanismo, mediante el cual el óxido nítrico provoca vasodilatación. Además de funcionar directamente como relajante vascular, a través de la 6-nitrodopamina inhibe el efecto vasoconstrictor de la dopamina”, dice Britto Júnior, actualmente investigador del King’s College London, en el Reino Unido. Ahora, Britto y el equipo de Campinas están investigando el efecto de otra catecolamina que hallaron en los mamíferos: la 6-cianocatecolamina, que contiene cianuro, un compuesto altamente tóxico. l
Los proyectos y artículos científicos consultados para la elaboración de este reportaje aparecen listados en la versión online
Un reloj biológico sorprendente
Las cianobacterias viven aproximadamente un día, pero son capaces de prepararse para los cambios de estación
MARIA GUIMARÃES

Cultivos mantenidos a 30 °C (columnas 1 y 3) comparados con otros sumergidos en agua con hielo durante dos horas (columnas 2 y 4 ): los de la derecha recibieron un “aviso” del frío mediante iluminación invernal
La nota en la puerta del despacho de Carl Johnson que dio vía libre a la estudiante para llevar a cabo un experimento inusitado
Resulta difícil imaginar que un organismo (humano o de cualquier otro ser vivo) pueda reaccionar en forma preventiva a una escala de tiempo muy superior a la duración de su propia vida, para prepararse, desde un punto de vista fisiológico, por ejemplo, para las temperaturas que se espera que imperen dentro de unos siglos. Sin embargo, en cierto sentido, esto es lo que hacen algunos linajes de cianobacterias de la especie Synechococcus elongatus utilizados en laboratorio. Se trata de unos seres unicelulares que viven de la luz y realizan fotosíntesis, y cuyo ciclo de vida dura aproximadamente un día, según lo reveló la bióloga brasileña
Maria Luisa Jabbur, investigadora del Centro John Innes, en el Reino Unido, en un artículo publicado en septiembre en la revista Science. Cuando estas bacterias reciben un “aviso” de la llegada del invierno, inmediatamente se preparan, aunque la llegada del frío solamente se produzca varias generaciones después. Jabbur viene estudiando el reloj biológico de estas cianobacterias desde su pasantía durante la carrera de grado, como parte del antiguo programa brasileño Ciencia sin Fronteras, en la Universidad Vanderbilt (EE. UU.). “Las cianobacterias constituyen un excelente modelo para estudiar los ritmos circadianos, y durante mucho tiempo la investigación con ellas se centró en cuestiones de mecanismos y evolutivas, que son mucho más fáciles de estudiar en ellas que en modelos eucariotas”, dice. “Creo que la cuestión de la fotoperiodicidad se dejó de lado”. Cuando se percató de este vacío en los estudios sobre el reloj interno de las

cianobacterias durante un período más prolongado, en su doctorado, nuevamente en Vanderbilt, le propuso un experimento a su director de tesis, el biólogo estadounidense Carl Johnson, quien en la década de 1990 participó en la identificación de tres genes (kai A, kai B y kaiC) que toman parte en el reloj circadiano de estos organismos, junto a los biólogos japoneses Takao Kondo y Masahiro Ishiura, de la Universidad de Nagoya, y a la bióloga molecular estadounidense Susan Golden, de la Universidad de California en San Diego.
La propuesta parecía absurda, pero el investigador no se opuso a la creatividad de su alumna, para ser coherente con la sentencia que atesoraba en un pequeño papel pegado en la puerta de su despacho: “El progreso es obra de los jóvenes científicos que experimentan con lo que los viejos científicos dicen que no funcionaría”.
“Se necesitaban pocos reactivos, lo único que perdería era mi propio tiempo, que calculé que serían una o dos semanas, entonces valía la pena”, recuerda Jabbur. Funcionó al primer intento y solo tardó una semana en regresar con la respuesta en dos placas de Petri, según un reportaje publicado en octubre en Quanta , una revista estadounidense de periodismo científico. Ambas mostraban puntos verdes que eran las colonias bacterianas y habían sido sumergidas en agua helada para simular la llegada del invierno, pero una de ellas se había mantenido bajo condiciones de días característicos del verano, con más horas de luz que de oscuridad, antes de ser expuesta al frío. La otra contenía descendientes de un linaje bacteriano que había recibido el “aviso” de la llegada del invierno mediante un cambio en las condiciones de luz que implicaba
más horas en la oscuridad. Esta segunda placa contenía una mayor abundancia de puntos verdes, señal indiscutible de supervivencia y reproducción, creando colonias más prósperas. Parecía un contrasentido, al fin y al cabo, estos organismos obtienen su alimento a partir de la luz.
El resultado hizo que mereciera la pena rehacer el experimento para efectuar una observación más detallada, con tres grupos de cianobacterias expuestas durante ocho días a distintos tratamientos, reflejando las estaciones bien diferenciadas, típicas de las zonas templadas: ocho horas de luz y 16 de oscuridad diarias, simulando el invierno; la misma cantidad de horas de luz y oscuridad, características de una estación intermedia, e iluminadas durante 16 horas, como si fuera verano, siempre a 30 grados Celsius (ºC), la temperatura preferida por estas bacterias. Bajo esas condiciones, las generaciones de microorganismos se sucedían hasta que la investigadora recogía muestras que sumergía en el hielo dentro de pequeños tubos de plástico. “Cada tanto extraía algunas gotas del medio de cultivo con bacterias en el hielo y las ponía en placas nuevas para evaluar cuántas células habían sobrevivido”, recuerda Jabbur. Al cabo de unos cinco días, las bacterias se habían reproducido en cantidad suficiente como para posibilitar el recuento de los puntos verdes: eran tres veces más abundantes en las que habían sido expuestas a la iluminación de invierno, lo que indicaba que las generaciones anteriores se habían adaptado a las condiciones frías, aunque no habían estado expuestas directamente a éstas. El proyecto, que era una mera curiosidad secundaria, acabó convirtiéndose en el eje principal de su doctorado y le valió ganarse un nombre

en este campo. “Es un resultado que la gente asocia conmigo”.
UN RELOJ MODELO
Según la física Gisele Oda, coordinadora del Laboratorio de Cronobiología del Instituto de Biociencias de la Universidad de São Paulo (IB-USP), las cianobacterias cumplieron un papel central en la evolución del conocimiento de la cronobiología, al haber derribado, desde los años 1980 en adelante, la noción arraigada de que el reloj biológico solo estaría presente en organismos con núcleos celulares organizados, ausentes en este tipo de microorganismos. “A partir de ellas, se demostró que todos los seres vivos, incluso los unicelulares, con y sin núcleo en sus células, poseen ritmos circadianos”, dice la investigadora, quien no participó en el estudio, pero conoció a Jabbur en su época de estudiante en el IB-USP.
Oda estudia cómo distinguen los días largos de los días cortos unos roedores subterráneos conocidos como tucutucos [Ctenomys spp.], a pesar de que pasan la mayor parte del tiempo sin ver la luz. “El caso de las cianobacterias fue aún más sorprendente porque muestran estacionalidad y, por si fuera poco, consiguen determinar que el día es más largo en verano que en invierno, siendo que cada ejemplar no llega a vivir un día completo”, compara. “Pensábamos que había que vivir 24 horas, como mínimo, para poder discernir que el día es más largo que la noche en verano”.
El biólogo Carlos Hotta, del Instituto de Química (IQ) de la USP, coordina un grupo especializado en el estudio de
Las cianobacterias cultivadas en placas de Petri fueron expuestas a diferentes condiciones de luminosidad para simular las estaciones del año
los ritmos circadianos de las plantas y también declaró estar sorprendido por el hecho de que las bacterias posean un mecanismo para percibir un lapso de tiempo tan amplio. Hotta no participó en el estudio y define al reloj biológico de las cianobacterias como un mecanismo completamente distinto al de otros organismos, con un oscilador central que determina el ritmo basándose únicamente en las proteínas y sus interacciones, así como formas de detectar el ambiente y llevarle información al organismo.
Jabbur explica que esta especie tiene unos 2.700 genes, entre los que se encuentran los tres identificados por Johnson y sus colaboradores. Cada día, kaiC experimenta un proceso químico de ganancia y pérdida de moléculas de fósforo, como resultado de las interacciones entre kai A y kai B. Este ciclo de fosforilación y desfosforilación está sincronizado con el día y la noche y tiene lugar mediante reacciones químicas cíclicas que solo dependen de las proteínas, sin necesidad de una activación continua de los genes y de la transcripción génica. Desde el punto de vista del laboratorio, este sistema químico basado en proteínas significa que los experimentos pueden realizarse de forma simplificada dentro de tubos de ensayo, sin la presencia de las células propiamente dichas. “Ello hace de éste un sistema especialmente bueno para el estudio cronobiológico y nos permite, por ejemplo,
dejar el reloj en pausa durante una parte del ciclo”, dice la investigadora, quien al concluir su doctorado se instaló en el laboratorio del biólogo británico Antony Dodd, en el Reino Unido, que investiga cómo afecta la regulación circadiana a la adaptación de las plantas y los microorganismos a las fluctuaciones ambientales. Y pudo comprobar que, cuando son expuestas a días cortos, las cianobacterias cambian la composición de su membrana, con pliegues en los fosfolípidos que la hacen menos rígida, un proceso conocido como desaturación. “Lo hacen de manera anticipada”. Con una membrana más permeable, aumenta el intercambio de moléculas entre las células y el medio, lo que contribuye a su supervivencia en invierno.
“Para las plantas, la capacidad de anticiparse a las estaciones es fundamental e implica definir cuándo producir flores o perder las hojas”, compara Hotta. La que carezca de la capacidad de conocer la hora del día y la estación del año se encontrará en desventaja evolutiva. Pero, para entender cómo un organismo se encuentra preparado para hacer frente a algo que excede con creces su tiempo de vida, es necesario migrar el punto de vista evolutivo hacia un enfoque en el que la selección natural actúe sobre el linaje, y no sobre la bacteria individual, según se afirma en el artículo de la revista Science.
Este estudio consolida la noción de la fotoperiodicidad como un fenómeno muy antiguo y apunta un modelo para estudiar sus mecanismos y su evolución. A propósito, las cianobacterias entienden de antigüedad evolutiva: estos organismos existen desde hace unos 3.500 millones de años y han contribuido a crear la posibilidad de vida en la Tierra al producir grandes volúmenes de oxígeno a través de la fotosíntesis.
“Pretendemos utilizar a las cianobacterias como modelo para entender cómo pueden evolucionar las respuestas fotoperiódicas frente al cambio climático: básicamente, someterlas a un escenario como el que se prevé que imperaría en 2100 y observar cómo evolucionan al cabo de unos años expuestas a estas condiciones”, propone Jabbur. Las soluciones que ellas implementen, por ejemplo, podrían orientar el cultivo de plantas alimenticias en forma más productiva. l
El artículo científico consultado para la elaboración de este reportaje figura en la versión online
JABBUR / JOHN INNES
AGRICULTURA
El cultivo autóctono de la mandioca
Una técnica de plantación aplicada por el pueblo Waurá, que habita en la tierra indígena del Alto Xingú, en Brasil, enriquece la diversidad de la planta y puede ayudar a recuperar especies que han sufrido una erosión genética
GILBERTO STAM
En un campo o roza de cultivo de mandioca de la aldea Ulupuwene, situada en la zona del Alto Xingú, estado brasileño de Mato Grosso, un anciano del pueblo Waurá clava en la tierra esquejes (partes del tallo) extraídos de distintas variedades de mandioca, bien cerca unos de otros. De cada uno brotan hojas y raíces. Cuando crecen y forman arbustos, las plantas se cruzan entre sí. Esta técnica de cultivo estimula la producción de semillas de nuevas variedades de la planta, lo que evita el declive genético típico de las plantas clonadas, según consta en un estudio publicado en marzo en la revista Science
“La mandioca o yuca fue domesticada hace unos 6.000 años por los pueblos indígenas en el borde sur de la Amazonia, territorio actual de los estados brasileños de Rondônia y Mato Grosso”, comenta el etnobiólogo Fábio Oliveira Freitas, de la división de Recursos Genéticos y Biotecnología de la estatal Empresa Brasileña de Investigación Agropecuaria (Embrapa), coordinador de un equipo de trabajo integrado por investigadores de ocho países. La planta adquirió un rol tan central en la alimentación que se la propagó mediante esquejes ya desde antes del período colonial, a través del intercambio entre comunidades vecinas desde el sur de Estados Unidos hasta la región meridional de América del Sur.

El ritual de bienvenida en la aldea Ulupuwene le da marco a la colaboración entre indígenas e investigadores



Los investigadores arribaron a esta conclusión con base en el análisis del genoma de 282 muestras de plantas de mandioca domesticada (Manihot esculenta) y silvestre (Manihot flabellifolia) de colecciones vivas de instituciones de investigación o de plantaciones tradicionales, como así también partiendo del ADN extraído de colecciones de herbarios y de utensilios hallados en yacimientos arqueológicos. Asimismo, utilizaron los datos genómicos de 291 muestras de estudios anteriores, lo que elevó a 573 el total de genomas analizados.
“Muchos agricultores tradicionales, ya sean indígenas o no, identifican los ejemplares que brotan de semillas y los dejan crecer”, relata Oliveira Freitas. Al cabo, si estas plantas exhiben las características deseadas, tales como raíces tuberosas más voluminosas o un mayor contenido de almidón, pasan a utilizarlas como fuente de esquejes, que producen clones idénticos a la planta madre. Según el investigador, el arbusto puede cruzarse con variedades silvestres que crecen cerca de las rozas, lo que incrementa la variabilidad del genoma.
“La clonación ha llevado a que todas las plantas de mandioca americanas tengan los mismos marcadores genéticos de parentesco, como si fuesen hermanas”, afirma el biólogo británico Robin Allaby, de la Universidad de Warwick, en el Rei-
no Unido, uno de los autores del artículo. Durante una conversación que mantuvo con Pesquisa FAPESP, Allaby destacó que este patrón difiere de otros cultivos como el maíz, que forma linajes distintos.
“En el estudio se llevó a cabo un amplio análisis genético de la mandioca que confirmó los patrones genéticos observados en estudios más sucintos”, analiza el etnobiólogo Nivaldo Peroni, de la Universidad Federal de Santa Catarina (UFSC), quien no participó en la investigación. “Con todo, estimo que podría haberse hecho más hincapié a la hora de resaltar la importancia de las comunidades tradicionales no indígenas en la generación de diversidad, y no solamente en la Amazonia, sino también en otras regiones de Brasil y de toda América.”
Según Peroni, existen más de 7.000 variedades de mandioca, creadas por comunidades con sus propias preferencias a la hora de seleccionar las plantas. El investigador ha venido estudiando el origen y la circulación de variedades en el contexto de las comunidades brasileñas tradicionales y destaca que los agricultores con ascendencia en las islas Azores que viven en la costa atlántica del centro-sur del país, como en el estado de Santa Catarina, aprendieron a plantar mandioca con los pueblos indígenas locales.
“En el sur de Brasil predominan las variedades extremadamente blancas, lo
que refleja el anhelo por producir algo que se asemeje a la harina de trigo de Europa”, añade Peroni. En las costas del estado de São Paulo, el investigador halló más de 50 variedades en el municipio de Cananéia y más de 30 en Ubatuba, cada una con características propias, muchas de ellas generadas a partir de la germinación de semillas en plantaciones y huertos de las comunidades locales.
Al ser un alimento rico en nutrientes y de reproducción y transporte sencillos, este tubérculo se convirtió en uno de los principales componentes de la dieta indígena y es parte de la alimentación de 1.000 millones de personas en todo el mundo, según la Organización de las Naciones Unidas para la Alimentación y la Agricultura (FAO).
Oliveira Freitas y Allaby visitaron la aldea Ulupuwene en distintas oportunidades entre 2018 y 2023 para investigar el cultivo tradicional de la mandioca, recoger muestras de las variedades y entrevistar a sus habitantes. “Es una técnica singular, dominada por unas pocas familias”, comenta Oliveira Freitas, quien estudia la agricultura del pueblo Waurá desde 1997.
Una vez preparado el terreno, los indígenas forman montículos de tierra suelta



El anciano Kuratu Waurá construye una casa de Kukurro plantando esquejes de mandioca
para facilitar la cosecha de los tubérculos, y clavan allí ramas que representan elementos de la leyenda referente a la producción de la mandioca. A ese conjunto de esquejes lo llaman “casa de Kukurro”, en referencia a un dios representado por la oruga que se come las hojas de la mandioca. El crecimiento de las plantas se vería favorecido por los cánticos rituales en honor a Kukurro. Las semillas que se forman a partir de esta mezcla de plantas constituyen una importante fuente de variedad genética y suelen permanecer latentes hasta que el fuego, empleado para limpiar el terreno antes de volver a plantar, estimula su germinación a partir del año siguiente.
“Las mujeres tienen un rol fundamental en este proceso”, subraya la bióloga Carolina Levis, de la UFSC, quien no participó en el estudio. “Suelen ser las principales responsables del cuidado de los cultivos. Son curiosas y dejan crecer las plantas nuevas observando sus características.”
“Los integrantes del pueblo Waurá son bastante selectivos”, añade Oliveira Freitas. “Seleccionaron cuatro variedades originarias de semillas durante el período de nuestras visitas, pero las descartaron todas porque consideraron que no tenían características nuevas”.
Cuando una nueva planta es aprobada, le dan un nombre y la incorporan a la colección viva de la aldea.
El video Casa de Kukurro, producido por Embrapa en 2019 y disponible para su visualización en YouTube, muestra el ritual que acompaña al cultivo. En el pueblo Waurá no se preocupan con las orugas que se alimentan de las hojas de la mandioca: según la mitología de la aldea, es Kukurro quien se alimenta y cuida así a las plantas. A los plantines que brotan de semillas los llaman kukurromalacati y los consideran plantas que caen del cielo.
“En Ulupuwene detectamos 19 variedades de mandioca silvestre o mandioca brava, informa Allaby. Según los investigadores, contrariamente a las variedades conocidas como yuca o mandioca dulce – mandioca-doce , aipim o macaxeira , en portugués– este tipo de tubérculo puede ser letal si no se lo procesa para eliminar el ácido cianhídrico, cuyo efecto es tóxico. “Hay que pelar la raíz, rallarla y prensar la pulpa, luego hervirla para que el ácido cianhídrico se evapore y, por último, poner la fécula resultante al sol para que se seque”, relata Oliveira Freitas. La fécula se utiliza para preparar lo que localmente llaman biju o beiju [mbeyú o mbeju , voz procedente del tupí-guaraní, similar al cazabe de otras regiones americanas; es una torta elaborada con fécula
de mandioca], el alimento principal de los Waurá junto con el pescado.
Cuando se casan, las mujeres del pueblo Waurá suelen llevarle la colección de plantas de su familia a sus maridos y continúan intercambiándolas cuando regresan para visitar a sus parientes. “Los matrimonios pueden ser interétnicos y abarcar grandes distancias, lo que aumenta la circulación de esquejes”, añade Levis. “Este estudio muestra la importancia de la agricultura a pequeña escala para la seguridad alimentaria”, dice Allaby. Según el investigador, de las 20 variedades de bananas que existen en Brasil, solamente la variedad nanica o cavendish, que se está deteriorando genéticamente y podría llegar a desaparecer en cuestión de décadas, resiste el transporte en barco hasta Europa. “Los indígenas saben mucho más que nosotros sobre el cultivo de la mandioca”, reconoce. A su juicio, la casa de Kukurro es una técnica que, desde el punto de vista genético, puede ayudar a revitalizar la diversidad de la mandioca y de otras plantas y constituye un ejemplo notable de lo que la ciencia académica puede llegar a ganar en el intercambio con la ciencia de los pueblos indígenas y las comunidades tradicionales. l
El artículo científico consultado para la elaboración de este reportaje figura en la versión online

Una visión profunda del campo
Un radar acoplado a un dron facilita el monitoreo de los cultivos, el análisis de los suelos y la localización de yacimientos minerales, hormigueros y osamentas en el subsuelo
DANILO ALBERGARIA

Para poder obtener una vista amplia del terreno, el radar se coloca en la parte inferior del dron
En el ámbito de la agricultura, los drones se utilizan para diseminar semillas o esparcir fertilizantes con precisión, economizando tiempo y dinero. Cuando éstos se combinan con sensores e inteligencia artificial, son capaces de realizar teledetección, tal como se hace con satélites y aviones, monitorear grandes extensiones de cultivos, ejecutar análisis precisos de los elementos químicos del suelo o detectar problemas, como en el caso de la erosión. Una de las técnicas más avanzadas en esta área, conocida por su denominación en inglés Synthetic Aperture Radar (SAR), o radar de apertura sintética, ha sido perfeccionada por la startup Radaz, una empresa brasileña surgida en 2017 en la Universidad de Campinas (Unicamp) y ahora con sede en São José dos Campos, en el interior del estado de São Paulo.
“Se trata de una tecnología innovadora con un enorme potencial para generar una amplia variedad de productos, atendiendo a diversos segmentos del mercado”, sostiene el ingeniero electricista Hugo Enrique Hernández Figueroa, de la Facultad de Ingeniería Eléctrica y Computación (Feec) de la Unicamp, quien dirigió el equipo a cargo del desarrollo de un radar acoplado a un pequeño dron. Para ello, el grupo tuvo que miniaturizar el hardware electrónico y las antenas del radar. El principio de funcionamiento del SAR, explica el investigador, consiste en el uso del radar en movimiento emulando a una antena considerablemente mayor que las que componen el propio radar. Como la directividad de la antena aumenta con su tamaño, la resolución del sistema también se incrementa.
A través de su antena, el radar emite pulsos de ondas electromagnéticas que son reflejadas por los obstáculos que estas encuentran en el suelo. Luego, la antena capta éstas ondas mientras el radar se desplaza a bordo de un avión, un satélite o un dron. El movimiento del radar a lo largo de su trayectoria crea una antena virtual de grandes dimensiones, lo que permite realizar observaciones detalladas y de alta resolución.
El principio de funcionamiento del SAR es similar al de la interferometría, en la que la combinación
de varias antenas de radio simula una única antena de grandes dimensiones que guarda relación con la trayectoria recorrida. Si el dron se desplaza 100 metros (m) en línea recta, el SAR puede emular a una antena de 100 m de apertura; si la trayectoria fuera circular, con un radio de 300 m, el radar emulará a una antena en forma de espiral de 300 m de radio.
El SAR fue desarrollado en Estados Unidos en la década de 1950 y ha sido utilizado desde la década de 1960 en satélites y sondas espaciales, por ejemplo, para cartografiar el relieve de Venus, oculto por nubes compuestas por gotas microscópicas de ácido sulfúrico y otros aerosoles. A principios de la década de 2000, fue acoplado a drones de gran porte de uso militar. La creciente miniaturización de los componentes electrónicos y el auge de los drones cimentaron la posibilidad de acoplar sistemas SAR a aparatos más pequeños, de uso civil.
“El reto radicaba en hacerlo, ya que nadie lo hacía”, comenta Hernández Figueroa. El primer informe de un SAR acoplado a un dron se remonta a 2016, en la Universidad de Texas (EE. UU.), pero se trataba de una versión artesanal y generaba imágenes de baja calidad. La empresa paulista apostó por un desarrollo propio, con tres bandas (o franjas) espectrales, incluyendo un sistema de navegación inercial avanzado (véase la infografía en la página 42).
Con su equipo, el investigador de la Unicamp se abocó a la tarea de reducir el tamaño de un dispositivo de 100 kilogramos (kg), que solo podía utilizarse en aviones, a uno que pesa 5 kg y puede adosarse a pequeños drones. La ingeniera electrónica Laila Moreira, directora técnica de Radaz, integrante del equipo que desarrolló el aparato en la Unicamp, comenta que otra modificación importante fue la incorporación de un software para procesar e interpretar las imágenes, basado en redes neuronales artificiales.
El apoyo de la FAPESP, a través del Programa de Investigación Innovadora en Pequeñas Empresas (Pipe), facilitó la transformación del prototipo, finalizado en 2017, en un dispositivo comercial. Los resultados iniciales con el monitoreo de plantaciones de eucalipto y caña de azúcar salieron publicados en febrero y abril de 2020 en la revista Remote Sensing
El dron ejecuta básicamente dos trayectorias de vuelo: lineal, en una única dirección, y helicoidal, en forma de espiral descendente, simulando el formato de una antena parabólica, lo que aumenta la resolución del radar. Los pulsos emitidos por el radar en su trayectoria helicoidal, y posteriormente reflejados por las diferentes estructuras subterráneas, proporcionan datos pormenorizados del subsuelo. Esta información se procesa mediante el llamado algoritmo de retroproyección, de uso habitual en las tomografías, que reconstruye en imágenes tridimensionales los pulsos reflejados.
El dispositivo cuenta con tres antenas y cada una de ellas opera en una banda distinta. La banda C recopila información de la capa más alta de la vegetación e informa sobre el crecimiento de las plantas. La banda L penetra hasta la vegetación situada por
Una visualización precisa
Banda C
Recopila datos sobre la parte superior de la vegetación e informa sobre su crecimiento
Banda L
Es capaz de atravesar la copa de los árboles y consigue medir el volumen de una plantación. En vuelo helicoidal, capta información sobre el suelo
Banda P
Penetra en el terreno y extrae información hasta los 50 cm de profundidad en vuelo lineal y hasta los 100 m en vuelo helicoidal
Banda C L
El radar de apertura sintética cuenta con tres antenas que operan en diferentes bandas espectrales FUENTE RADAZ
debajo de las copas de los árboles y puede utilizarse para medir el volumen de una plantación, o bien, en el vuelo helicoidal, para captar datos sobre el suelo. En tanto, la banda P penetra en el terreno y extrae información hasta los 50 cm de profundidad en vuelo lineal y hasta 100 m en el vuelo helicoidal. Según informa Radaz, no existe ningún otro aparato en el mundo con esta configuración.
En pruebas de campo que se llevaron a cabo en 2022, la banda P detectó nidos de hormigas cortadoras en plantaciones de eucaliptos y pinos pertenecientes a la empresa fabricante de papel Klabin, en el estado de Paraná. El dispositivo identificó 29 hormigueros desconocidos que se extendían por superficies de entre 1 y 100 metros cuadrados (m²) en una plantación de eucaliptos situada en el municipio de Ortigueira (Paraná). El aparato reveló que los nidos de las hormigas alcanzaban profundidades de hasta 7 m, tal como se detalla en un artículo publicado como preprint depositado en el repositorio arXiv en diciembre de 2024.
Este fue “el primer registro mundial de un hormiguero situado bajo tierra utilizando esta tecnología”, dijo el gerente de investigaciones y desarrollo forestal de Klabin, Bruno Afonso Magro, en declaraciones concedidas a Agência FAPESP en julio de 2022. Normalmente monitoreadas por muestreo de la superficie ocupada con intervención humana, las hormigas cortadoras de hojas o jardineras construyen nidos que reducen la productividad del suelo hasta en un 15 %. En otra prueba, también divulgada en diciembre en el repositorio arXiv, el dispositivo reconoció la altura y la fase de crecimiento de 340 plantines de caña de azúcar plantados en un área experimental de 20.000 m² de la Facultad de Ingeniería Agrícola (Feagri) de la Unicamp. En un informe presentado en 2024 en un congreso en Atenas (Grecia), el equipo obtuvo un 100 % de precisión en la búsqueda de esqueletos de vacas y cerdos enterrados a 1,5 m de profundidad. El dispositivo también registra el hundimiento, la erosión y la humedad del suelo.
DEMANDA EXTRANJERA
El sistema desarrollado por Radaz también ha sido utilizado, con buenos resultados, para seguir el crecimiento de un cañamelar en una finca de São Paulo y para localizar yacimientos de mineral de hierro, según informa el ingeniero electrónico Fernando Ikedo, director comercial de Radaz. Por motivos contractuales, el nombre de los clientes no puede revelarse.
El mercado de la teledetección con drones parece tener potencial de crecimiento. Según Ikedo, la facturación de la startup pasó de 1,1 a 5,1 millones


de reales entre 2022 y 2023. En 2024, ascendió a 17,3 millones de reales, en su mayor parte fruto de las ventas a interesados del exterior.
Uno de los clientes es el físico Henrik Persson, de la Universidad de Ciencias Agrícolas de Suecia, quien utiliza el dron con radar para evaluar la biomasa y el metabolismo de los árboles, la humedad del suelo, las napas freáticas y los estratos rocosos subterráneos. “Las mediciones tomográficas han posibilitado nuevas investigaciones sobre las condiciones del suelo, que por lo general todavía se realizan mediante la extracción de muestras, una tarea costosa, lenta y tediosa”, declaró a Pesquisa FAPESP
Por su parte, la empresa británica Surveyar adquirió la innovación para mapear las madrigueras de los castores, que causan daños a los agricultores porque construyen diques en cursos de agua que inundan las plantaciones. Según informa para la redacción de este reportaje el director de la empresa, William Kirk – quien descubrió la existencia de Radaz al leer artículos de científicos brasileños sobre la detección de hormigueros– el experimento dio resultado y ello llevó a utilizarlo para detectar la humedad del suelo y la vegetación, vigilar las deformaciones del suelo, realizar mediciones de biomasa e identificar objetos enterrados.
LOS PRÓXIMOS DESAFÍOS
Sin equipos análogos en el mercado nacional, esta nueva tecnología se enfrenta al reto de explorar nuevos mercados. En función del costo de los componentes electrónicos y la tecnología de punta implicada, el dispositivo completo no se comercializa por menos de 1 millón de reales, eso sin contar el valor del dron. También tiene incidencia la existencia de otras tecnologías complementarias de menor costo que responden a demandas específicas de los productores rurales. Pero ninguna de ellas ofrece las funcionalidades del dispositivo de Radaz.
Según cuál sea al objetivo perseguido, el monitoreo de los cultivos puede realizarse con simples cámaras convencionales, del tipo RGB, que solamente captan el espectro visible y pueden adquirirse por un precio que va de los 12.000 a los 60.000 reales. En cambio, las multiespectrales, que abarcan otras frecuencias como el infrarrojo, cuestan hasta 300.000 dólares. Los dispositivos de este tipo son capaces de proporcionar datos satisfactorios sobre el crecimiento, el volumen de la biomasa y el estado de salud de las plantas, según el ingeniero ambiental Lucas Osco, de la Universidade do Oeste Paulista (Unoeste) y de la división Instrumentación de la estatal Empresa Brasileña de Investigación Agropecuaria (Embrapa), con sede en la ciudad de São Carlos, quien trabaja con teledetección.
Otra alternativa, según Osco, es la tecnología lídar (detección de luz y medición de distancias), que utiliza haces de luz láser en lugar de señales de radar. Con precios que parten de los 100.000 reales y pueden ascender hasta alrededor de 1 millón de la misma moneda, la técnica produce mapeos tridimensionales minuciosos, pero tiene restricciones de visibilidad, lo que da lugar al uso del SAR. Las tecnologías innovadoras dirigidas al campo también necesitan solucionar problemas que tienen que ver con las normativas y la capacitación de los operadores. Asimismo, enfrentan cierta oposición por parte de los agricultores brasileños que, en el pasado reciente, obtuvieron resultados inferiores a los esperados con los drones que prometían incrementar la producción. “Los productores optan por tecnologías que ya están afianzadas, con altos beneficios asegurados. Esto dificulta la venta de productos innovadores”, dice el ingeniero agrónomo José Marques Júnior, de la Universidade Estadual Paulista (Unesp), en su campus de Jaboticabal, experto en análisis de suelos. l
Los proyectos y artículos científicos consultados para la elaboración de este reportaje aparecen listados en la versión online
Detalle del dispositivo acoplado al dron (a la der.) y el radar sometido a pruebas en los laboratorios de la startup
De la selva al aire

Al descender hacia las cercanías de la superficie, las partículas de aerosoles que se forman debido a la liberación del gas isopreno generan núcleos de condensación de nubes

El gas que emiten los árboles de la Amazonia incrementa 100 veces la producción de núcleos de condensación, las semillas de las nubes
MARCOS PIVETTA
Un mecanismo de defensa que surgió y desapareció varias veces en el transcurso de la historia evolutiva de distintos linajes de plantas, especialmente en árboles de ambientes cálidos, ejerce un papel crucial en la Amazonia sobre uno de los parámetros más importantes del clima terrestre: la cantidad de nubes existentes en el cielo. Probablemente como forma de afrontar los picos de estrés térmico, las hojas de los árboles emiten un compuesto volátil, el gas isopreno (C₅H₈). Durante el día, en presencia de la luz solar, el isopreno se degrada rápidamente tras su liberación. Pero bajo determinadas condiciones nocturnas, este compuesto permanece en el aire durante más tiempo, gana altura y se transforma en un ingrediente esencial de la química atmosférica, una especie de difusor de los procesos que resultan en la formación de las nubes. Ésta es la principal conclusión que surge de dos nuevos estudios a cargo de grupos internacionales que contaron con la participación de científicos brasileños, publicados simultáneamente en diciembre en la revista Nature. El isopreno, una molécula de la familia de los terpenos, que comprende a los principales compuestos volátiles que emiten las plantas, cuando es liberado por las hojas de los árboles y escapa a su final temprano reacciona con otros gases y desencadena una serie de reacciones en la baja y en la alta tropósfera, la capa más superficial de la atmósfera terrestre. Esas interacciones aumentan decenas de veces la tasa de formación de partículas de aerosoles y posteriormente de núcleos de condensación, los embriones de las nubes. Este mecanismo potencia la génesis de nubes no solamente sobre la Amazonia, sino también sobre el océano Atlántico y probablemente sobre otras partes del globo. Aproximadamente las dos terceras partes de la superficie del planeta están cubiertas permanentemente por nubes, un ingrediente del clima que puede tanto
calentar como enfriar una región, aparte de llevar humedad a través de las lluvias.
Los artículos muestran en detalles la secuencia de interacciones fisicoquímicas entre el isopreno y otros compuestos que deriva en la formación de enormes cantidades de partículas de aerosoles en la alta tropósfera de la Amazonia, a alturas ubicadas entre los 8 y los 15 kilómetros (km). Esas partículas inicialmente son de algunos nanómetros (nm) de diámetro, pero con el tiempo se agregan con otros aerosoles y crecen en tamaño. Pueden ser transportadas hacia diferentes partes del globo debido a la circulación atmosférica y poseen un importante papel en la génesis de los núcleos de condensación de las nubes. Cuando alcanzan la baja tropósfera, a entre 1 y 2 km de altura, los núcleos de al menos 50 nm de diámetro funcionan como soportes del vapor de agua, que se condensa (se convierte en líquido) y da origen a las nubes. Sin los núcleos, no existen nubes, que pueden ser de buen tiempo o de lluvia. El descubrimiento del juego de interacciones disparado por la emisión del isopreno, que se convierte en gas a temperaturas superiores a los 34 grados Celsius (ºC), explica un fenómeno observado hace dos décadas en los cielos de la Amazonia. A comienzos de la década de 2000, algunos científicos tomaron conocimiento de la existencia de concentraciones de aerosoles en la alta tropósfera de la gran selva tropical que eran 160 veces mayores que las medidas cerca de la superficie. Sin embargo, no existía una explicación consistente para ese hallazgo hasta la publicación de los nuevos trabajos. “Ahora hemos resuelto este misterio y demostramos que un compuesto orgánico liberado por la propia selva, el isopreno, inicia el proceso de formación de esos aerosoles”, dice el físico Paulo Artaxo, del Instituto de Física de la Universidad de São Paulo (IF-USP) y coautor de uno de los estudios, que aparecieron como destacados en la portada de Nature. “Es sumamente importante entender el proceso de formación de
las nubes para perfeccionar nuestros modelos de pronóstico meteorológico y climático”.
Uno de los artículos se basa en datos de procesos químicos obtenidos en sobrevuelos a la Amazonia con el avión Halo, del Centro Aeroespacial Alemán (DLR), entre diciembre de 2022 y enero de 2023. Estas actividades formaron parte del proyecto Chemistry of the Atmosphere: Field Experiment in Brazil (Cafe-Brazil), un experimento de campo llevado a cabo hace dos años. “Concretamos 136 horas de vuelo y recorrimos 89.000 km sobre la Amazonia”, comenta el meteorólogo Luiz Augusto Machado, del IF-USP y colaborador del Instituto Max Planck de Química, de Alemania, quien supervisó todos los vuelos y fue de la partida en algunos de ellos. El avión Halo despegaba desde Manaos incluso antes de que amaneciera para captar las interacciones fisicoquímicas del
De los árboles al cielo
El gas isopreno que la selva libera sube hasta la alta atmósfera y acelera la formación de núcleos de condensación, que descienden hasta cerca de la superficie y generan nubes
isopreno sin la influencia de la luz solar, y podía permanecer en el aire durante 10 horas seguidas registrando parámetros de la atmósfera. El segundo trabajo se concretó en las dependencias de la Organización Europea para la Investigación Nuclear (Cern), en Suiza, en la cámara Cloud (Cosmics Leaving Outdoor Droplets). Este aparato genera las condiciones y los procesos que suceden en la atmósfera. “Cloud es un cilindro de acero inoxidable de 3 metros de altura, que es abastecido con aire ultralimpio con las mismas proporciones de nitrógeno y oxígeno que existen en la atmósfera”, comenta la meteoróloga brasileña Gabriela Unfer, quien lleva adelante su doctorado en el Instituto Leibniz de Investigación Troposférica, en Leipzig, Alemania. Unfer es la única brasileña que suscribe ambos artículos sobre los aerosoles de gran altitud.
3 A entre 8 y 15 km de altura, y a 30 ºC bajo cero, el isopreno reacciona con los NOx cuando amanece, bajo el efecto de la radiación ultravioleta
4 C₅H₈ y NOx interactúan con compuestos ácidos y generan partículas de algunos nanómetros (nm) que con el tiempo crecen y pierden altura
Otros compuestos
Relámpago
2 Por las noches, las moléculas de ese gas son transportadas hacia arriba en nubes convectivas profundas cuyos rayos generan óxidos de nitrógeno (NOx)
1 Las hojas de los árboles emanan un gas, el isopreno (C₅H₈), como respuesta a los efectos del calor
Núcleos de condensación de nubes
5 Cuando pasan de 50 nm, los aerosoles, ya cerca de la superficie, pasan a ser núcleos de condensación en los cuales se apoya el vapor de agua para generar las nubes
Para que el sistema Cloud pueda simular las condiciones de la atmósfera de una zona del planeta, es necesario suministrarle a la cámara la información meteorológica y química referente a ese lugar del planeta. “Los datos de campo obtenidos en los vuelos del programa Cafe-Brazil sirvieron de base para que pudiesen simularse en el Cloud las correctas configuraciones de temperatura, humedad y de concentración de gases. Así fue como reprodujimos en el laboratorio la formación de aerosoles de gran altitud desencadenada por las emisiones de isopreno de las plantas”, explica Unfer.
El aspecto más sorprendente de los estudios indica que los aerosoles que se forman a entre 8 y 15 km de altura deben su existencia a procesos que comienzan en medio de los árboles de la Amazonia. “Si la selva tropical sigue siendo deforestada, eso tendrá un impacto sobre el proceso de producción de los aerosoles en la alta tropósfera y, por consiguiente, sobre la formación de las nubes más cerca de la superficie”, comenta el meteorólogo Micael Amore Cecchini, del Instituto de Astronomía, Geofísica y Ciencias Atmosféricas (IAG) de la USP, otro autor de uno de los papers que participó en la campaña Cafe-Brazil. La clave de todo el proceso es el isopreno, un compuesto volátil orgánico incoloro, con un levísimo aroma que puede remitir al caucho o al petróleo. La emanación de esta molécula gaseosa, expelida como una especie de transpiración de la vegetación, es un mecanismo evolutivo que ayuda a las plantas, especialmente a las tropicales, a protegerse contra los efectos negativos de los picos de calor. Cerca de la superficie, en la baja atmósfera, el isopreno dura minutos o unas pocas horas. Durante el día, bajo la luz solar, este gas reacciona con el ozono y con otros compuestos y desaparece rápidamente y casi por completo de la atmósfera. Pero las moléculas de isopreno que no se destruyen y las que emiten tras la puesta del sol los árboles de la Amazonia escapan de ese final precoz y son transportadas a la alta atmósfera debido a la acción de las tormentas nocturnas. A unos 15 km de altura, en donde la temperatura es inferior a los 30 ºC bajo cero, el isopreno no se degrada como sucede cerca de la superficie e interactúa con otros compuestos. La producción nocturna de rayos durante las tormentas hace que el isopreno se una a moléculas de óxidos de nitrógeno y forme rápidamente una enorme cantidad de partículas de aerosoles de algunos nanómetros. “En la alta atmósfera, el isopreno acelera 100 veces la velocidad de formación de los aerosoles”, comenta Machado. La velocidad de desplazamiento de los aerosoles en la alta tropósfera llega a los 150 km por hora. Por eso es razonable suponer que los mismos

migren hacia áreas muy alejadas de la Amazonia, en donde perderían altura y se aglutinarían hasta formar núcleos de condensación de nubes a entre uno y dos km por encima de la superficie. Es probable que este mismo mecanismo de formación de los aerosoles a altitudes elevadas también se concrete en otras partes del planeta, especialmente sobre las selvas tropicales del Congo, en África, y en el sudeste asiático. El isopreno es el principal compuesto volátil que emiten las plantas. Se liberan anualmente alrededor de 600 millones de toneladas rumbo a la atmósfera. “Este tipo de formación de partículas de aerosoles en la alta tropósfera ocurriría no solamente en la Amazonia, sino también en todos los bosques tropicales, dado que todos ellos emiten mucho isopreno”, dice en entrevista concedida a Pesquisa FAPESP el meteorólogo Joachim Curtius, de la Universidad de Fráncfort, autor principal del estudio con los datos del experimento Cafe-Brazil. “La selva amazónica por sí sola es responsable de más de una cuarta parte de las emisiones totales de isopreno.”
El paso siguiente de los estudios consiste en intentar entender con mayores detalles de qué manera se concreta el crecimiento y el transporte de los aerosoles en la alta tropósfera de la Amazonia y cómo transcurre su descenso hacia las cercanías de la superficie terrestre. “No sabemos qué cantidad de esas partículas se pierden debido a colisiones con otras partículas y en otras interacciones ni cuántas ‘sobreviven’ y se convierten en núcleos de condensación en las bajas alturas del trópico, donde se forman las nubes”, comenta Curtius. En este proceso, el isopreno es solamente la punta del iceberg o, mejor dicho: la punta de la nube. l
Los proyectos y artículos científicos consultados para la elaboración de este reportaje aparecen listados en la versión online
El avión Halo sobrevuela la Amazonia para efectuar mediciones de la química de la atmósfera
Triple asfixia oceánica
Los eventos extremos que juntan olas de calor y episodios de alta acidificación y escasez de clorofila se han vuelto frecuentes desde 2009 en el Atlántico Sur
RENATA FONTANETTO

Un tipo de evento extremo triple que hace 20 años era prácticamente inexistente en el Atlántico Sur, la combinación de olas de calor marinas, la escasez de clorofila y la acentuada acidificación del mar, comenzó a generar episodios cada vez más frecuentes en la parte del océano situada por debajo del ecuador a partir de 2009, según un artículo publicado el 16 de abril en la revista Nature Communications. Es la primera vez que se registran en un estudio la frecuencia y la intensidad de este fenómeno compuesto en ese sector del Atlántico.
La aparición de estos eventos fue analizada en el transcurso de dos períodos de 10 años conse
cutivos (de 1999 a 2008 y de 2009 a 2018) en seis regiones del Atlántico Sur, tres de las mismas cerca de las costas brasileñas y otras tres del litoral del continente africano. En todas ellas, durante el primer intervalo de tiempo, no se registró ningún evento que reuniera simultáneamente los tres tipos de fenómenos extremos. En el segundo período, la historia cambió por completo. Los episodios de eventos triples comenzaron a aparecer y a volverse relativamente habituales. Según la región analizada, la duración mínima acumulada del total de eventos triples fluctuó entre 17 y 49 meses durante la segunda década que comprende el estudio (véase el cuadro comparativo en la página 50). Los episodios concomitantes
Vista aérea de los corales que sufrieron el blanqueamiento en el municipio de Rio de Fogo [Rio Grande do Norte], durante la ola de calor de 2020 (a la izq.); imagen submarina de un coral que perdió su color (abajo)
más severos que combinaban olas de calor, alta acidez y escasa disponibilidad de clorofila abarcaron áreas que representaban entre un 4 % y un 18 % de la extensión total da cada región.
“A partir de 2016, este fenómeno triple comenzó a producirse prácticamente todos los años”, destaca la oceanógrafa física Regina Rodrigues, de la Universidad Federal de Santa Catarina (UFSC), autora principal del artículo. Tal como apunta el estudio, el verano de la temporada 20152016 fue excepcional en términos de intensidad y extensión espacial de los eventos triples combinados en las seis regiones estudiadas.
Las áreas analizadas del sector occidental del océano, cerca de la costa de Brasil, fueron las del Atlántico ecuatorial (a lo largo del nordeste del país), el Atlántico subtropical (en el sudeste) y la Confluencia BrasilMalvinas (en el sur). En la costa oriental, en las proximidades de África, el trabajo se centró en las regiones conocidas como Atlántico ecuatorial oriental (a lo largo de las costas de Nigeria, Camerún y Gabón), la franja denominada Frente Angola (frente a las costas de Angola y Namibia) y la zona conocida como Retroflexión de Agujas, al sudoeste de Sudáfrica.
Las intensas perturbaciones climáticas que se producen en estas zonas pueden afectar la pesca y la maricultura local. Las aguas más cálidas y ácidas elevan la mortalidad de las especies marinas y provocan el fenómeno del blanqueamiento de los corales, indicador de un ambiente sometido a un enorme estrés. La escasa presencia de clorofila en el mar, el pigmento verde natural indispensable para que las plantas y las algas puedan realizar la fotosíntesis, indica una disminución de la disponibilidad de fitoplancton, esencial en la dieta de muchos organismos marinos.
Para confirmar la existencia de un evento triple, es necesario que cada uno de los tres fenó

menos extremos se superponga simultáneamente en al menos el 1 % del área de interés. El estudio centró su análisis en los meses de verano, de diciembre a marzo. La incidencia de las olas de calor en el Atlántico Sur se basó en información producida por la Oficina Nacional de Administración Oceánica y Atmosférica (NOAA), de Estados Unidos. La aparición de eventos extremos de alta acidez se dedujo a partir de datos suministrados por el Centro Hadley del Servicio Meteorológico británico. Los extremos de baja concentración de clorofila en el Atlántico Sur fueron inferidos a partir de un modelo de la Nasa, la agencia espacial estadounidense, que calcula la concentración del pigmento verde natural en los océanos.
Para la oceanógrafa Leticia Cotrim, de la Universidad del Estado de Río de Janeiro (Uerj), quien no participó en el estudio, el aporte novedoso de este artículo reside en que proporciona datos sobre la frecuencia y la extensión de fenómenos marinos extremos compuestos por tres alteraciones concomitantes. “Se trata de un trabajo innovador. Hasta ahora solamente había estudios que analizaban un tipo de evento extremo en forma aislada o como máximo, dos a la vez, generalmente en otros océanos distintos al Atlántico Sur”, comenta Cotrim. “Los resultados de este trabajo pueden orientar proyectos de conservación oceánica, además de proporcionar una base para las actividades económicas que dependen del mar”. Un dato preocupante del estudio se refiere al aumento del proceso de acidificación en el Atlántico Sur. Entre 1998 y 2008, este fenómeno prácticamente no existía en esa parte del océano, excepto en dos puntos situados más al norte, cerca del continente africano. A partir de 2009, el Atlántico Sur comenzó a volverse mucho más ácido. Esta alteración se asocia al aumento de la temperatura media global en las últimas décadas, producto de la multiplicación de las emisiones de gases de efecto invernadero, tales como el dióxido de carbono (CO₂) y el metano (CH₄), que calientan el planeta. “Estamos constatando episodios de acidificación marina cada vez más frecuentes. Esta tendencia parece elevar la frecuencia de aparición de estos eventos triples en los últimos 10 años”, dice el oceanógrafo Thomas Frölicher, de la Universidad de Berna, en Suiza, otro de los autores del artículo, en una entrevista concedida a Pesquisa FAPESP Sin los océanos, el clima de la Tierra, que se ha vuelto 1,5 grados Celsius (ºC) más cálido desde mediados del siglo XIX debido a las emisiones de gases de efecto invernadero producto de las actividades humanas, sería actualmente más tórrido aún. Estos absorben el 90 % del calor de la atmós
La escalada de los eventos extremos triples
Aparición simultánea de episodios de olas de calor marinas, intensa acidificación y escasez de clorofila en el Atlántico Sur entre 2009 y 2018
Línea del ecuador
América del Sur
Trópico de Capricornio
Duración total de los eventos triples
Porcentaje de la zona afectada por el fenómeno
fera terrestre y el 30 % de las emisiones de CO₂. Pero estos servicios ambientales tienen un costo para los mares. La absorción de la mayor parte del calor terrestre impulsa las olas de calor marinas. La extracción de casi un tercio del principal gas de efecto invernadero de la atmósfera hace que sus aguas se vuelvan cada vez más ácidas.
Durante los años de El Niño, un fenómeno que se caracteriza por un calentamiento anómalo de las aguas superficiales de la región central y oriental del océano Pacífico ecuatorial, todo se intensifica. Esta alteración climática desencadena cambios en la atmósfera que interactúan con las condiciones oceánicas. “El Niño opera como un agente lejano sobre los factores locales que observamos. Por lo tanto, en los años de El Niño, como entre 2015 y 2016, la incidencia de eventos extremos triples en las seis regiones del Atlántico Sur es indudablemente alta”, explica Rodrigues. Según otro artículo del que la investigadora de la UFSC también es coautora, publicado en marzo de 2025 en la revista Communications Earth & Environment, las olas de calor por sí solas, incluso cuando no se registra un incremento acentuado de la acidez marina, son suficientes como para causar extensos daños a los arrecifes de coral en áreas próximas al ecuador. En zonas de aguas muy cálidas y sujetas a otros factores de estrés, como el exceso de luz solar, los corales expulsan a las algas que les dan color a sus tejidos, provocando su blanqueamiento. Desde la década de 1980, este tipo de fenómeno extremo se ha vuelto 5,1 veces más frecuente y
Atlántico ecuatorial occidental
17 meses 18%
Atlántico subtropical occidental
37 meses 14% Confluencia BrasilMalvinas
39 meses 9%
Océano Atlántico África
Atlántico ecuatorial oriental
40 meses 15%
Frente AngolaBenguela
49 meses 4%
4,7 veces más intenso en las aguas tropicales del Atlántico, tanto al norte como al sur del ecuador. Un episodio reciente que ha llamado la atención ha sido la intensa ola de calor marina que afectó los alrededores de Rio do Fogo, una localidad costera del estado brasileño de Rio Grande do Norte, entre el verano y el otoño de 2020. El calentamiento de las aguas marinas locales provocó el blanqueamiento del 85 % de los corales duros y del 70 % de los zoántidos, animales con un cuerpo generalmente más blando, que habitan en los arrecifes de coral. “El agua alcanzó los 32 ºC, cuando su temperatura habitual en verano es de 28 ºC, dice el biólogo Guilherme Longo, de la Universidad Federal de Rio Grande do Norte (UFRN), también coautor del artículo. “Varias especies de corales de la región presentan un límite térmico promedio de 29,7 ºC. Si se exponen a temperaturas superiores a este umbral, comienzan a sufrir daños biológicos”.
Según Longo, las olas de calor han aumentado su frecuencia, su intensidad y su extensión, afectando más áreas de la costa del nordeste brasileño. En 2024, el año más caluroso de la historia reciente del planeta, un episodio térmico extremo sin precedentes asoló a esa región. “La magnitud del fenómeno y la mortalidad de especies fueron el año pasado un poco mayores que en 2020. Muchas especies acababan de atravesar una perturbación muy intensa y enseguida tuvieron que enfrentarse a otra”, comenta el biólogo. Con el calentamiento global en alza, se esperan nuevos récords negativos que asolarán al Atlántico. l
Los artículos científicos consultados para la elaboración de este reportaje aparecen listados en la versión online
Retroflexión de Agujas
22 meses 9%
FUENTE REGINA RODRIGUES (UFSC)
La luz del sonido
El control de las interacciones entre fotones y fonones puede dar lugar a la obtención de láseres más precisos y facilitar el procesamiento de la información cuántica
DANILO ALBERGARIA
El dibujo muestra la cavidad en el interior de un cristal optomecánico en el que las ondas lumínicas (en rojo) interactúan con las ondas mecánicas de la estructura. Esta acción produce dos haces de luz de sentidos opuestos, uno rosa y otro azul
Cuando un haz de luz láser relativamente intenso se propaga por un material, modifica ligeramente la densidad del medio físico y genera ínfimas vibraciones. Estas oscilaciones acústicas distorsionan el material y pueden causar alteraciones en las características originales de la luz. Dos artículos científicos publicados recientemente, que contaron con la participación de físicos brasileños, presentan avances experimentales en el control de las interacciones entre las ondas de luz (fotones) y las ondas acústicas o mecánicas (fonones) en el interior de un medio
físico, el fenómeno brevemente descrito en el pie de la imagen que aparece en la página anterior “Estos trabajos muestran avances que pueden ayudar al desarrollo de dispositivos para sistemas de comunicación cuántica”, dice Gustavo Wiederhecker, del Instituto de Física Gleb Wataghin de la Universidad de Campinas (IFGW-Unicamp), en São Paulo. El investigador es coautor de uno de los artículos y coordina el Programa QuTIa [Quantum Technologies InitiAtive] en Tecnologías Cuánticas de la FAPESP, en cuyo marco se llevaron a cabo los estudios.
El primer artículo se publicó el 15 de marzo en la revista Nature Communications. El mismo presenta un cristal de silicio con un diseño que tiene por objeto disipar el calor muy rápidamente y aumentar la eficiencia del procesamiento de la información basada en cúbits (bits cuánticos). El segundo estudio, publicado en línea el 21 de marzo en la revista Physical Review Letters, describe una nueva estrategia para manipular la polarización de la luz, es decir, el plano (vertical u horizontal) en el que vibran sus ondas electromagnéticas. Este último avance puede ser útil para producir láseres más sutiles y puros, lo que, en teoría, podría ampliar la capacidad de transmisión de datos en la fibra óptica.
Ambos trabajos fueron dirigidos por físicos de la Unicamp en colaboración con universidades estadounidenses. Con diferentes enfoques, estos estudios contribuyen al desarrollo de dispositivos ópticos capaces de realizar lo que se conoce como transducción cuántica a través de oscilaciones acústicas. Este proceso consiste en utilizar vibraciones mecánicas para convertir la información cuántica entre dos formas de energía, de una longitud de onda del espectro electromagnético a otra. Para el desarrollo de las redes cuánticas se necesita transformar, sin que se produzca una pérdida significativa de información, los cúbits codificados en frecuencias de microondas en bits cuánticos que operen en el espectro de la luz visible.
En este punto se centran los esfuerzos del artículo publicado en Nature Communications . El trabajo indica que la transducción cuántica puede realizarse utilizando un cristal de silicio con el que la luz puede interactuar a lo largo de un plano en dos dimensiones. Hasta ahora solamente se habían utilizado como transductores cristales cuya estructura permite interacciones con la luz en una dimensión, es decir, tan solo en una dirección específica. La desventaja de estos cristales unidimensionales radica en su propensión al calentamiento residual. El material absorbe parte de la energía de la luz y pierde eficiencia durante el proceso de transducción. “El diseño de nuestro cristal fue pensado
para ‘conversar’ con los cúbits superconductores y para disipar el calor muy rápidamente”, explica Thiago Alegre, del IFGW-Unicamp, quien firma el estudio junto con André Primo, quien completó su doctorado bajo su dirección en 2024, y colegas de la Universidad Stanford, en Estados Unidos. Para contrarrestar el aumento de la temperatura, los investigadores diseñaron un cristal optomecánico bidimensional con estructuras a las que denominaron “bumeranes” y “dagas”. Los “bumeranes”, situados en la parte exterior, funcionan como escudos contra las interacciones del cristal con el ambiente, evitando perturbaciones mecánicas. Las estructuras internas denominadas “dagas” sirven para atrapar la luz introducida en el cristal por una fibra óptica. Además de confinar los fotones entre sí, las “dagas” también vibran, generando ondas acústicas. Los fonones de esta vibración interactúan con los fotones entre las “dagas” y se acoplan a ellos. El acoplamiento cuántico hace que una alteración en el estado de los fotones produzca un cambio casi instantáneo en los fonones y viceversa. Esto demuestra que, en el dispositivo, es posible convertir la información contenida en la luz en vibraciones acústicas. La transmisión de información entre los procesadores cuánticos normalmente tiene lugar en materiales superconductores que operan en la frecuencia de las microondas y a temperaturas extremadamente frías, cercanas al cero absoluto, en torno a -273,15 grados Celsius (ºC). Una línea de transmisión de microondas entre estos dispositivos debería operar a temperaturas similares, ya que la información cuántica en estas frecuencias se desorganiza a temperaturas más altas. En la práctica, la refrigeración necesaria para construir redes cuánticas más largas, superiores a unos pocos metros, se topa con esta limitación térmica.
La geometría del cristal ideado por la Unicamp y sus colaboradores soluciona el problema del calentamiento residual, pero aún debe perfeccionárselo para lidiar mejor con la tarea de convertir la información cuántica de una forma de energía a otra. El control de las vibraciones acústicas del cristal durante el proceso de conversión de los datos de las frecuencias de microondas a las de la luz visible aún no es óptimo. De conseguirse alcanzar este objetivo, será posible transmitir datos cuánticos vía láser a lo largo de extensas redes de fibra óptica. “La fibra óptica es un excelente aislante térmico y la información transportada por la luz no se ve perturbada por las variaciones de temperatura”, comenta Primo.
Para el físico Anderson Gomes, de la Universidad Federal de Pernambuco, quien no participó en el trabajo, el estudio tiene una gran originalidad, ya que “amplía las fronteras del conocimiento en materia de optomecánica”, dice. “Es el primer
Imagen de una guía de ondas creada en la Unicamp (el rectángulo negro) acoplada a dos fibras ópticas

paso para la demostrar la transducción mediante un cristal de silicio bidimensional”.
El segundo artículo se ocupa del fenómeno conocido como dispersión de Brillouin. Este proceso se produce cuando la luz incide sobre un sustrato y altera alguna de sus propiedades debido a la influencia de las vibraciones acústicas del material. El resultado de esta interacción entre fotones y fonones es que la luz dispersada puede presentar una frecuencia (color) diferente a la de la luz incidente. En el ámbito de las comunicaciones, la manipulación de este tipo de dispersión, propuesta en 1922 por el físico francés Léon Brillouin (1889-1969), se emplea actualmente para medir la temperatura y la presión en las fibras ópticas.
En el artículo publicado en la revista Physical Review Letters, los físicos dirigieron un haz láser hacia guías de onda fabricadas con niobato de litio (LiNbO₃), con el propósito de intentar cambiar su polarización, el plano en el que vibran sus ondas electromagnéticas. Este tipo de alteración puede dar lugar a láseres más puros y precisos, que tienden a ser más eficientes en la transmisión de información. Las guías de onda son unas estructuras que confinan y direccionan la propagación de las ondas electromagnéticas (generalmente láser) o las vibraciones mecánicas.
El niobato de litio es un material que se usa en el ámbito de las telecomunicaciones y presenta una estructura microscópica hexagonal, similar a la de un panal de abejas. Una de sus propiedades consiste en ser anisotrópico: el cambio de orientación de su estructura modifica su interacción con la luz. Las guías de onda están hechas normalmente con materiales isotrópicos como el nitrato de silicio (Si3N4), que interactúan de la misma manera con la radiación electromagnéti-
ca independientemente de la dirección en que se encuentran orientadas sus estructuras.
Además de ser anisotrópico, el niobato de litio fue elegido para utilizarse en el experimento porque presenta otra característica deseada: se trata de un material piezoeléctrico, es decir, que produce cargas eléctricas cuando vibra o sufre algún tipo de estrés mecánico. Los experimentos realizados en el Laboratorio de Fotónica Integrada del IFGW indican que cambiar el nivel de inclinación de las guías de onda de LiNbO3 altera la intensidad de la dispersión de la luz. La frecuencia electromagnética de las ondas dispersadas también difiere según el ángulo. En las guías de niobato de litio, la luz que interactúa con las vibraciones se dispersa en polarización cruzada. Si el haz láser inicial tiene dirección horizontal, la luz reflejada por los fonones del medio físico presenta una polarización vertical, y viceversa. “Esta forma de manipular la información transmitida por la luz puede ser útil para fabricar guías que funcionen como conversores de polarización”, comenta el autor principal del estudio, el físico Caique Rodrigues, quien completó su doctorado en la Unicamp a principios de 2025 bajo la dirección de Wiederhecker. Además de Rodrigues, firman el trabajo Wiederhecker, Alegre, otros cuatro investigadores del grupo de óptica de la Unicamp y colegas de la Universidad Harvard, en Estados Unidos. El físico Cleber Mendonça, del Instituto de Física de São Carlos de la Universidad de São Paulo (IFSC-USP), quien no participó en el estudio, subraya que el resultado del trabajo corrobora la posibilidad de manipular la polarización de la luz con algo similar a un interruptor óptico. “De esta manera, sería posible seleccionar la polarización de la luz que se propagaría o no en el interior de la fibra óptica”, afirma. l
Los proyectos y artículos científicos consultados para la elaboración de este reportaje aparecen listados en la versión online
Microondas para detectar tumores
Una nueva generación de sistemas de diagnóstico por imágenes apunta a evitar la compresión mamaria y la radiación de los mamógrafos tradicionales
GISELLE SOARES
Cuidadosamente, el ingeniero de información Bruno Sanches coloca sobre la mesa del Laboratorio de Sistemas Integrados de la Escuela Politécnica de la Universidad de São Paulo (Poli-USP) un aparato de color anaranjado y con formato cónico, de 15 centímetros (cm) de diámetro, parecido a la copa de un corpiño o sostén. Tiene su sentido. Se trata del prototipo de una nueva generación de dispositivos diseñados para realizar exámenes de las mamas que se ajustan alrededor de los senos y toman imágenes desde distintos ángulos en busca de tumores que deban eliminarse. El Instituto Nacional del Cáncer (Inca), estima que habrá 73.600 nuevos casos de cáncer mamario al año en Brasil entre 2023 y 2025. Es el tipo de tumor más frecuente entre las mujeres de todas las regiones del país, con índices más elevados en el sur y el sudeste.
Una de las características principales del nuevo sistema de diagnóstico por imágenes, un proyecto conjunto entre la Poli-USP y el Departamento de Ingeniería Eléctrica del Instituto Federal de São Paulo (IFSP), consiste en que su funcionamiento se basa en las microondas, una nueva vía tecnológica que también es objeto de investigaciones en universidades de Estados Unidos, Canadá,


Reino Unido, Suecia, Italia, Japón y Australia. Los mamógrafos que se emplean actualmente para detectar tumores mamarios funcionan con rayos X, un tipo de radiación ionizante que puede entrañar riesgos para la salud.
Aunque la mayoría de las mujeres lo toleran bien, el examen realizado con los mamógrafos tradicionales puede causar molestias y dolor, debido a la compresión que ejercen sobre los senos las placas que componen el aparato. El nuevo dispositivo proyectado por los investigadores paulistas se amolda a las mamas y evita que el proceso sea doloroso. En 2023, en el Sistema Único de Salud (el SUS, la red de salud pública nacional) de Brasil, se realizaron 4,4 millones de mamografías.
“Pretendemos ofrecer una alternativa complementaria a la mamografía”, comenta Sanches. Según el ingeniero, este aparato podría ser especialmente útil para las mujeres con mamas densas, para quienes la mamografía es menos sensible. La densidad de los senos, una característica independiente de su tamaño, es la proporción de tejido fibroso y glandular en relación con el tejido adiposo o grasa.
El estándar del Colegio Americano de Radiología (ACR) para los exámenes por imágenes clasifica a las mamas en cuatro tipos de densidad: predominantemente grasa y menos densa, más fácil de examinar mediante una mamografía; con áreas dispersas de tejido fibroglandular; heterogéneamente densa, lo que puede dificultar la detección de pequeños nódulos o tumores, y extremadamente densa, lo que hace aún más difícil la detección de lesiones en la mamografía. El sistema propuesto podría resultar ventajoso en los casos de mamas densas, ya que las propiedades electromagnéticas de los tejidos implicados son discrepantes, lo que permite diferenciarlos.
“Cuanto más densa es la mama, más blanca aparece en la mamografía, lo que dificulta la detección de los tumores, que también presentan este color”, explica el radiólogo Almir Bitencourt, del A.C.Camargo Cancer Center, uno de los principales centros de investigación, diagnóstico y tratamiento nacionales en este campo. “En estos casos, suelen recomendarse exámenes complementarios tales como la ecografía o la resonancia magnética”.
ONDAS DE RADIO
El prototipo de la USP y el IFSP utiliza un dispositivo electrónico que transmite y recibe señales llamado transceptor de microondas, con antenas incorporadas. El transceptor emite ondas de radio de banda ultraancha, con una frecuencia central de 6,4 gigahercios (GHz), que atraviesan el tejido mamario y retornan al dispositivo al toparse con estructuras internas más densas, como los posibles tumores. Las señales reflejadas son procesadas por una unidad de procesamiento de imágenes que utili-
za un algoritmo para generar un mapa detallado de la región (véase la infografía en la página contigua). Actualmente, el sistema genera imágenes bidimensionales reconstruidas de la mama, pero la estructura del hardware permite ajustar la posición vertical de la plataforma, lo que hace posible variar la ubicación de las antenas. De este modo, el dispositivo podrá realizar exámenes de diferentes secciones de la mama y exhibir imágenes tridimensionales.
En ensayos realizados con un modelo artificial, denominado phantom , con materiales que buscan replicar las propiedades eléctricas de los tejidos mamarios, los investigadores constataron que el aparato es capaz de detectar tumores de 1 cm de diámetro y a 3 cm de profundidad, tal como se lo describe en un artículo publicado en enero de 2023 en la revista Biomedical Signal Processing and Control. La estructura interna del phantom fue proyectada para simular la anatomía de la mama, con 0,2 cm de piel, 6 cm de tejido glandular y 8,6 cm de tejido adiposo. El cáncer de mama se clasifica en cuatro estadios clínicos, según su extensión y gravedad. Los tumores de hasta 2 cm de diámetro que aún no afectaron a los ganglios linfáticos se encuentran en un estadio inicial y son los menos graves. La mamografía por rayos X, recomendada para el diagnóstico de alteraciones sospechosas en cualquier edad, tanto en mujeres como en varones, no solo logra identificar las lesiones de un tamaño inferior a 1 cm, sino también los primeros signos del cáncer de mama, las llamadas microcalcificaciones. “En la actualidad, ningún otro método detecta las microcalcificaciones con la misma precisión”, informa Bitencourt, del A.C.Camargo. El examen por microondas, aunque en su versión actual es menos preciso, podría evitar la radiación ionizante de los equipos tradicionales. “Los mamógrafos que utilizan rayos X requieren ambientes blindados, mientras que la tecnología basada en microondas no emite radiación ionizante, lo que la vuelve más segura y accesible”, destaca la ingeniera electricista Fatima Salete Correra, también de la Poli-USP, quien no participó en la investigación. Los equipos portátiles y de bajo costo pueden ser beneficiosos, sobre todo en lugares donde el acceso a los exámenes mamográficos es más difícil. La experiencia previa del equipo paulista con el circuito integrado miniaturizado conocido como Sampa (acrónimo en inglés por serialized analog-digital multi-purpose Asic), construido con la ayuda de la FAPESP, contribuyó al desarrollo de los componentes integrados al prototipo portátil. “El conocimiento sobre cómo proyectar y fabricar amplificadores muy sensibles, conversores analógico-digitales y procesadores de señales fue
Cómo funciona el nuevo examen
El dispositivo se coloca en diferentes ángulos alrededor de la mama para obtener la mejor imagen
Sostén
Antena
Soporte para el hardware
1 El prototipo utiliza un transceptor de microondas con antenas incorporadas y un sujetador de caucho de silicona para el acoplamiento en seco, sin necesidad del gel conductor
Tejido adiposo
Prototipo del sistema de diagnóstico por imágenes vía microondas diseñado en la USP y el IFSP
Ondas de radio
Tejido glandular Tumor
Tejido fibroso
2
El transceptor emite ondas de radio de banda ultraancha, que atraviesan el tejido mamario y rebotan hacia el aparato cuando encuentran estructuras internas más densas
3
Para generar una imagen más completa y detallada, el dispositivo se posiciona sobre diferentes partes de la mama, sin necesidad de comprimirla
esencial para poder construir chips aplicados al área de la salud”, explica Sanches, de la Poli-USP. El chip Sampa (también una alusión a la ciudad de São Paulo), creado por investigadores de la USP, la Unicamp y el Instituto Tecnológico de Aeronáutica (ITA), se encuentra en funcionamiento desde 2020 en uno de los cuatro detectores de partículas del Gran Colisionador de Hadrones (LHC), operado por la Organización Europea para la Investigación Nuclear (Cern), en la frontera francosuiza.
El próximo paso del equipo paulista consistirá en evaluar el desempeño del prototipo en phantoms de diversos tamaños de mama y diferentes tipos de tumores. Aún no hay empresas interesadas en colaborar con el proyecto. En otros países, los dispositivos de este tipo ya se encuentran en fases más avanzadas de desarrollo. En un artículo de revisión publicado en diciembre de 2024 en la revista IEEE Access, los investigadores de la USP y el IFSP compararon el rendimiento de 12 prototipos

4
Una unidad de procesamiento analiza las señales reflejadas y, con la ayuda de un algoritmo propio, genera un mapa bidimensional de la zona analizada
y observaron que presentan niveles dispares de sensibilidad (la capacidad de identificar correctamente a las personas que presentan un tumor) y especificidad (la capacidad de mostrar un resultado negativo en las que no tienen un tumor).
Algunos han mostrado alta precisión, como el dispositivo desarrollado por la Universidad McMaster, en Canadá, que demostró capacidad para detectar tumores de 2,4 milímetros (mm), aunque el examen tarda cinco horas. Uno de los dispositivos más avanzados ha sido bautizado Maria (acrónimo en inglés por multistatic array processing for radio-wave image acquisition) y fue creado en la Universidad de Bristol (Inglaterra). En una ensayo clínico con 389 mujeres con una edad promedio de 47 años, la sexta versión del aparato logró identificar correctamente el 47 % de las lesiones malignas, un porcentaje aún bastante inferior al de la mamografía convencional, cuyo índice de acierto es de un 92 %, según se detalla en un artículo publicado en enero de 2024 en la revista British Journal of Radiology. Aunque el examen recibió una evaluación positiva de las mujeres, los autores del estudio, bajo la dirección del radiólogo Richard Sidebottom, del Royal Marsden NHS Foundation Trust, arribaron a la conclusión de que el diagnóstico por microondas aún no puede considerarse completamente eficaz. Del total de participantes, el 94 % prefirió este procedimiento antes que la mamografía tradicional, principalmente porque evitaba la compresión de las mamas y por la ausencia de radiación ionizante. Nueve de cada 10 mujeres declararon haberse sentido más cómodas durante el diagnóstico. l
Los artículos científicos consultados para la elaboración de este reportaje aparecen listados en la versión online
FUENTE BRUNO SANCHES (USP)
INGENIERÍA ESPACIAL
Aldebarán-I: el cubesat proyectado en la Universidad Federal do Maranhão es compacto y mide 10 cm de arista
Para localizar náufragos
Un nanosatélite diseñado en Brasil nace con la misión de rescatar pequeñas embarcaciones que se encuentran en situaciones de emergencia en el mar
YURI VASCONCELOS
Un nanosatélite fabricado en la Universidad Federal d o Maranhão (UFMA), con el apoyo de la Agencia Espacial Brasileña (AEB), prestará su colaboración a las autoridades costeras de Brasil en misiones de búsqueda y rescate de pequeñas embarcaciones pesqueras que afrontan dificultades en el mar. El artefacto, un cubesat estándar 1U, un dispositivo con formato cúbico de 10 centímetros de arista, también se empleará en la detección de incendios forestales.
Cinco años después de la puesta en marcha del proyecto, el satélite, bautizado Aldebarán-I, superó las pruebas finales en el mes de enero. “Uno de los ensayos a los que se lo sometió fue el de vibración, esencial para cerciorarnos de que soportará las condiciones extremas del lanzamiento”, dice el ingeniero aeronáutico Carlos Alberto Brito Rios Junior, docente de la carrera de ingeniería aeroespacial de la UFMA y coordinador del proyecto. “El satélite ya se encuentra listo para su
envío a la India, desde donde se lo lanzará para entrar en órbita”. El lanzamiento está previsto para el mes de junio.
La denominación Aldebarán-I constituye una referencia a la estrella más brillante de la constelación de Tauro. “Se trata de un nombre de origen árabe que significa el seguidor, y está relacionado con su misión. Al mismo tiempo, algunas personas dicen que Aldebarán es el nombre de la estrella que se le pone en la testa al buey, el protagonista de la más tradicional fiesta de nuestro estado, llamada Bumba Meu Boi”, dice Brito Rios Junior.
Este proyecto forma parte de una iniciativa del Programa Nacional de Actividades Espaciales, enfocado en la construcción de nanosatélites académicos, dispositivos de bajo costo y con un ciclo de desarrollo más corto. “Contamos con diversos proyectos de satélites en el país, algunos que están a cargo de centros de investigación gubernamentales, otros encabezados por empresas privadas. También hay un grupo de dispositivos cuyos proyectos se llevan adelante en universidades”, comenta el director de Gestión de Cartera de la AEB, Rodrigo Leonardi. Aparte de fomentar el desarrollo tecnológico, según lo remarca Leonardi, el programa de nanosatélites tiene por objeto la capacitación de mano de obra en el sector espacial y la generación de capacidades en las universidades brasileñas.
Estos dispositivos se emplean con diversos fines, como la observación de la Tierra, en estudios científicos y en el desarrollo de tecnologías para su aplicación en el espacio. “Los nanosatélites y los cubesats se desarrollaron por primera vez con propósitos educativos”, puede leerse en un artículo de investigadores

del Instituto Nacional de Investigaciones Espaciales (Inpe) de Brasil publicado en la Revista Ambiente & Água en el año 2020. “Si bien son aún incipientes, las aplicaciones de los nanosatélites y las misiones propuestas están incrementándose”.
El nanosatélite de la UFMA constituye una prueba de concepto. Se lo empleará para validar una nueva tecnología. A tal fin, pequeños barcos de pesca recibirán un sistema de transmisión que enviará señales con su ubicación al satélite. “Estas señales se reenviarán hacia una estación en tierra, que les remitirá un mensaje de emergencia a los servicios de salvataje”, explica el doctor en ingeniería Luís Claudio de Oliveira Silva, al mando del Laboratorio de Electrónica y Sistemas Espaciales Embarcados (Labesee) de la UFMA, que albergó el proyecto. En el caso de la prevención de incendios forestales, plataformas de recolección de datos instaladas en zonas de monte le transmitirán información al satélite, que a su vez la reenviará a una estación terrena. “Un sistema buscará indicadores de incendios mediante el uso de inteligencia artificial”, aclara De Oliveira Silva. De tener éxito el Aldebarán-I, habrá que construir una constelación de nanosatélites para que los servicios de localización de náufragos y de incendios puedan ponerse en práctica. “Solamente con una constelación tendremos siempre algún satélite sobrevolando Brasil”, explica Leonardi. “Estamos prospectando constelaciones de satélites nacionales de pequeño porte. Si esta prueba de concepto funciona, podrá dar origen a una constelación de este tipo”. l
El artículo científico consultado para la elaboración de este reportaje figura en la versión online


Expresión nacional
Estudios revisitan la obra del escritor brasileño Jorge Amado y lo ponen de relieve como un autor preocupado por las cuestiones raciales, de clase y de género
EDUARDO MAGOSSI

“D
Jorge Amado en 1972: traducido a 49 idiomas, nunca gozó de unanimidad entre los críticos brasileños
oña Flor: esta señora va saliendo. Las dos últimas escenas de la cuarta parte salieron pronto; la primera fácilmente, en un día, la segunda me costó cuatro días: ahí se produjo la aparición de Vadinho. Ahora he empezado la quinta parte, y estoy trabajando en la primera escena, ya tengo redactado el borrador, lo que resta es reescribirla. Pero ahora me estoy debatiendo con los problemas de esta quinta parte que es difícil”. Así describía el escritor bahiano Jorge Amado (1912-2001), en una carta de 1962 dirigida a su esposa, la escritora Zélia Gattai (1916-2008), la elaboración de una de las escenas principales de la novela Dona Flor e seus dois maridos [Doña Flor y sus dos maridos] (1966). “Cualquiera que se aboque a la prolífica obra de Amado podría pensar que fue un escritor intuitivo, descuidado en su proceso creativo”, asevera Marcos Antonio de Moraes, profesor de literatura brasileña en la Universidad de São Paulo (USP). “Empero, su correspondencia revela lo contrario: era disciplinado, le gustaba madurar sus historias, se angustiaba con el texto en proceso”. De Moraes es uno de los 56 investigadores que redactaron las entradas del recientemente publicado Dicionário crítico Jorge Amado [Diccionario crítico de Jorge Amado] (editorial Edusp), coordinado por los historiadores Marcos Silva (1950-2024), quien fue docente de la Facultad de Filosofía, Letras y Ciencias Humanas (FFLCH) de la USP, y Nelson Tomelin Jr., de la Universidad Federal de Amazonas (Ufam). El libro, elaborado durante un lapso de 10 años, reúne textos producidos por investigadores de diversos campos del conocimiento, como los estudios literarios y la antropología, que discuten la obra de Amado. Es el caso de las 23 novelas escritas por el autor bahiano desde la década de 1930, entre ellas Jubiabá (1935) y Gabriela, cravo e canela [Gabriela, clavo y canela] (1958). El diccionario también incluye artículos sobre elementos que ayudan a contar la trayectoria del escritor, como el discurso que pronunció al tomar posesión de su cargo en la Academia Brasileña de Letras, en 1961. Según Tomelin Jr., uno de los objetivos de dicha publicación, que contó con el apoyo de la Fundación de Apoyo a la Investigación Científica del Estado de Amazonas (Fapeam), es contribuir para ampliar y renovar la lectura de la producción
literaria de Amado y de su contexto de época. “Tiene innumerables lectores en Brasil y en todo el mundo, sobre todo por la fuerza de su escritura, por su alcance temático y por la capacidad de diálogo de sus libros con la época histórica de su creación, pero no siempre tuvo una acogida respetuosa por parte de la crítica y de sus pares connacionales”, comenta el investigador. Uno de los motivos, sospecha Eduardo de Assis Duarte, profesor jubilado de la Facultad de Letras de la Universidad Federal de Minas Gerais (UFMG), residiría precisamente en su gran popularidad entre los lectores. “Algunos académicos lo consideran un autor ‘fácil’, de folletín, pero ya en la década de 1930 él puso sobre el tapete temas cruciales de Brasil, como las infancias en situación de calle en Capitães da areia [Capitanes de la arena; 1937]”. Según la periodista e historiadora Joselia Aguiar, autora de Jorge Amado: Uma biografia [Jorge Amado: Una biografía] (editorial Todavía, 2018), la fortuna crítica del escritor arranca allá por los años 1930. “En las primeras décadas gozó de una recepción muy positiva y recibió críticas favorables, entre otras, de figuras como Oswald de Andrade [1890-1954] y Antonio Candido [1918-2017]”, comenta Aguiar, quien también defendió su tesis doctoral sobre el autor bahiano en el Departamento de Historia de la USP, en 2019. “Sin embargo, a partir de la década de 1970, Amado empezó a ser duramente rechazado por un enfoque crítico centrado más que nada en las cuestiones de género, como fue el caso de un artículo de Walnice Nogueira Galvão, de la USP, con un análisis negativo de la obra Tereza Batista cansada de guerra [1972], que tuvo repercusiones en el ambiente académico durante mucho tiempo.”
Además, prosigue Aguiar, con el afianzamiento del movimiento negro, también a finales de la década de 1970, los autores que habían tratado la cuestión racial, como era el caso de Amado, empezaron a ser más cuestionados por su mirada, a veces considerada excesivamente conciliadora. “Pero ahora se está viendo que, incluso en estas esferas, su obra está siendo revisada, rescatada y revalorada”, dice la investigadora. Esto está sucediendo, por ejemplo, debido a la ampliación del acceso de los estudiantes negros a la universidad, especialmente durante los últimos 25 años, un factor que ha aportado nuevas miradas al ambiente académico, y también por la reedición de la
obra de Amado, a partir de 2008, por la editorial Companhia das Letras. “Lo que está faltando es que haya más gente del propio mundo literario que estudie su obra para entender mejor su éxito y sus estrategias literarias”, opina.
Otra de las reservas al autor por críticos como Alfredo Bosi (1936-2021), de la USP, es el tono excesivamente panfletario de algunas de sus obras escritas entre las décadas de 1930 y 1950. Tras afiliarse al Partido Comunista de Brasil (PCB) en 1931, Amado comenzó a hacer propaganda ideológica a través de libros y panfletos encargados por el PCB, algunos de los cuales nunca fueron reeditados. Es el caso de Homens e coisas do Partido Comunista [Hombres y cosas del Partido Comunista] (1946), que forma parte de una colección publicada por la editorial Horizonte, propiedad del partido. A lo largo de sus 61 páginas, el título narra la historia de militantes comunistas considerados héroes de la lucha contra el fascismo en Brasil, durante el Estado Novo (1937-1945).
“Esta vertiente más ideológica de Amado ha sido muy censurada por la crítica literaria, no por su adhesión al comunismo, sino porque él se convirtió en una especie de agente de propaganda activo del Partido Comunista y de la difusión del socialismo internacional a través del realismo socialista”, comenta el historiador Lincoln Secco, de la FFLCHUSP, quien firma la entrada al respecto de Homens e coisas do Partido Comunista. No obstante, aunque las obras de propaganda partidaria le costaron la animadversión de la crítica especializada, también le granjearon fama internacional. La novela biográfica intitulada O cavaleiro da esperança [El caballero de la esperanza] (1942), por ejemplo, encargada por el PCB a Amado para homenajear la trayectoria del líder político Luís Carlos Prestes (1898-1990), fue traducida a 21 idiomas, entre ellos el alemán, el francés y el japonés. “El movimiento comunista invertía gran cantidad de dinero en publicaciones propagandísticas de sus causas”, dice el investigador. En su tesis doctoral defendida el año pasado en la FFLCH-USP, con el apoyo de la FAPESP, el historiador Geferson Santana indagó en el protagonismo de Amado y otros dos intelectuales bahianos, Edison Carneiro (1912-1972) y Aydano do Couto Ferraz (1914-1985), en los debates sobre raza y clase durante la primera mitad del siglo XX. “En la década de 1920, el PCB negaba la existencia del racismo en el país y llegó a corroborar la idea del blanqueamiento de la población brasileña”, comenta el investigador. “Estos tres intelectuales, que ingresaron al PCB en la década de 1930, figuran entre los responsables principales de promover la agenda racial en el partido. Querían
combatir el racismo y la intolerancia religiosa, como así también ampliar la representación de los comunistas entre los trabajadores negros.”
Su etapa literaria signada en gran medida por la política se extendió hasta la década de 1950. La trilogía Os subterrâneos da liberdade [Los subterráneos de la libertad ] (1954), escrita durante el exilio en Europa, se considera la última obra ideológica del autor. Los tres tomos, titulados Os ásperos tempos [Los tiempos ásperos], Agonia da noite [Agonía de la noche] y A luz no túnel [Luz en el túnel ], retratan la vida política brasileña en vísperas del golpe de Estado encabezado por Getúlio Vargas en 1937. Para Antonio Dimas, docente de literatura brasileña de la FFLCH-USP, Os subterrâneos da liberdade sería una especie de certificado del deber cumplido dirigido al Partido Comunista, del que Amado se alejaría poco después, en 1956. “Es como si hubiera dicho: ‘Con esta trilogía, mi deuda está definitivamente saldada’.”
Algunos estudiosos de la obra de Amado suelen definir a Gabriela, cravo e canela, publicado originalmente en 1958, como un parteaguas en la carrera del escritor. Este es el caso de Dimas. Para el investigador, ése fue efectivamente el momento en el que Amado dejó de ser un propagandista para convertirse en un novelista. “Es un Jorge Amado diferente, con más humor e ironía. Luego de esta obra, crearía grandes heroínas, como Tieta y Doña Flor”, dice. “Pero resulta interesante notar que ya en el libro O país do Carnaval [El país del Carnaval] [1931], que escribió cuando tenía 18 años, las mujeres son más activas y resistentes que los varones, incluso estando en un segundo plano.”
En cambio, Duarte, de la UFMG, no observa rupturas significativas en la trayectoria literaria del escritor. Es lo que trata de argumentar en su recientemente publicado Narrador do Brasil: Jorge Amado, leitor de seu tempo e de seu país [Narrador de Abajo, de izquierda a derecha, Zélia Gattai, los filósofos Jean-Paul Sartre y Simone de Beauvoir y Amado con Mãe Senhora (sentada) en la década de 1960, en Salvador [Bahía]. Al lado, las portadas de Jubiabá y de la edición estadounidense de Gabriela, clavo y canela


Dos fotografías de Amado (de pie en ambas) en los años 1960: en un encuentro que contó con la presencia del presidente João Goulart (a la izq. de la

Brasil: Jorge Amado, intérprete de su tiempo y de su país] (Fino Traço Editora, 2024). En su análisis, el investigador sostiene que durante toda su trayectoria literaria Amado se ocupó de las cuestiones de género, clase y raza. “Siempre retrató mujeres libres, dueñas de su propia vida”, dice. “E incluso tuvo el valor de elegir a dos prostitutas como protagonistas de sus narraciones en Tieta do agreste [Tieta de Agreste] [1977] y Tereza Batista cansada de guerra.”


Gracias a títulos como Gabriela, cravo e canela, Amado fue incluido en 1996 en el libro Guinness de los récords como el autor más traducido del mundo. La obra del escritor bahiano ha sido traducida a 49 idiomas. Sus libros llegaron a Estados Unidos a partir de la década de 1940, principalmente gracias a la llamada Política de Buena Vecindad del presidente Franklin D. Roosevelt (1892-1945) tras la Segunda Guerra Mundial (1939-1945). En aquel momento, el Departamento de Estado de Estados Unidos comenzó a patrocinar localmente la edición de autores extranjeros, entre otras disposiciones.
En el caso de Amado, su debut fue con el libro Terras do sem-fim [Tierras del sin fin], publicado en Brasil en 1943 y editado dos años más tarde en inglés. La publicación corrió por cuenta de los editores estadounidenses Alfred Knopf (1892-1984) y su esposa, Blanche Knopf (1894-1966). “En virtud de la Política de Buenos Vecindad, el interés inicial del matrimonio Knopf era editar autores que narraran la historia de Brasil en sus novelas, como también fue el caso de Érico Verissimo [1905-1975]”, comenta la traductora Marly Tooge, quien el año pasado publicó un artículo acerca de este episodio. Con Gabriela, cravo e canela, publicado en Estados Unidos en 1962, el escritor bahiano figuró en la lista de los best sellers del periódico The New York
Times durante un año. “Al parecer, el hecho de que Jorge Amado haya roto con la ideología marxista en la década de 1950 contribuyó a su inserción en el mercado estadounidense. Pero la traducción también colaboró en ese sentido”, continúa Tooge, cuya tesina de maestría, defendida en 2009 en la FFLCH-USP, se convirtió en el libro Traduzindo o BraZil: O país mestiço de Jorge Amado [Traducir BraZil. El país mestizo de Jorge Amado] (Humanitas, 2012), publicado con el apoyo de la FAPESP. La investigadora se refiere a los traductores James Taylor y William Grossman, quienes en la versión en inglés suavizaron las referencias a temáticas sociales y se centraron en la sensualidad de la trama. “Esta suavización del sentido también se produjo en otros títulos de Amado publicados en Estados Unidos, como Doña Flor y sus dos maridos. Asimismo, la publicidad apuntaló el costado ‘exótico’ de sus historias. En cambio, en Europa, sus libros más exitosos fueron los de la etapa ideológica”, dice. Más allá de escribir libros, Amado fue un gran epistológrafo. Según Aguiar, la colección de correspondencias reunidas por el autor y por Gattai, que en la actualidad se conservan en la fundación Casa de Jorge Amado en Salvador de Bahía, reúne alrededor de 70.000 cartas. En su tesis doctoral, la investigadora ahondó en la correspondencia intercambiada por el autor entre las décadas de 1950 y 1980 con escritores hispanohablantes como el cubano Nicolás Guillén (1890-1954) y el chileno Pablo Neruda (1904-1973). “En estas misivas, Amado fue construyendo simultáneamente una red de afecto y de fortalecimiento cultural y político, sosteniendo que en el caso de Latinoamérica, la literatura se erigía como una forma de resistencia al imperialismo”, sostiene Aguiar. “Entendió que en esa escritura era menester encontrar una expresión nacional”. l
El proyecto, el artículo científico y los libros consultados para la elaboración de este reportaje aparecen listados en la versión online

Al compás del tiempo
Investigaciones
EDUARDO MAGOSSI
Río de Janeiro fue una de las primeras ciudades fuera de Europa que registró la ejecución del Réquiem de Wolfgang Amadeus Mozart (17561791). En 1819, la ciudad fue sede de una presentación de esa misa fúnebre escrita en 1791 por el compositor austríaco, de acuerdo con un estudio del musicólogo Ayres de Andrade Júnior (1903-1974) publicado en la década de 1960. Pero la obra circuló también por São Paulo durante la primera mitad del siglo XIX, tal como lo indica una investigación reciente coordinada por el musicólogo Paulo Castagna, del Instituto de Artes de la Universidade Estadual Paulista (Unesp), en su campus de la ciudad de São Paulo.
Durante los últimos tres años, dos de ellos con financiación de la FAPESP, el investigador y su equipo catalogaron y organizaron todo el archivo musicográfico (es decir, constituido por partituras) de la antigua Biblioteca del Conservatorio Dramático y Musical de São Paulo. Dicho espacio funcionó entre 1906 y 2006 en el centro de la capital paulista, donde actualmente se ubica la Praça das Artes.
Entre los descubrimientos que se concretaron en el marco de la investigación se encontraba la copia manuscrita de la partitura del Réquiem. Aunque sin fecha, la copia del documento estuvo a cargo del maestro de capilla de la Catedral de São Paulo, Antônio José de Almeida (1816-1876), quien asumió sus funciones en la década de 1840. “Se estima que la copia se hizo cerca del año 1850”, dice Castagna. “Se trata de un trabajo muy precia do y que insumía mucho tiempo en aquella época. Hacer la copia y no ejecutarla era un desperdicio. Por ende, es muy probable que haya sido cantada”.
En total, Castagna y su equipo catalogaron al rededor de 17.000 artículos del fondo musicográfi co del antiguo conservatorio, que en la actualidad pertenece a la Fundación Theatro Municipal de São
Paulo. Se trata del tercer mayor acervo de este género existente en Brasil, detrás únicamente de los que se encuentran depositados en la Biblioteca Nacional (en Río de Janeiro) y en la biblioteca Alberto Nepomuceno de la Universidad Federal de Río de Janeiro (UFRJ). “Es una colección importante por su diversidad cronológica y estilística, que reúne piezas compuestas en Brasil y en el exterior entre los siglos XVIII y XX, que van desde la ópera y la música sacra hasta composiciones para bandas y música popular”, enumera el investigador.
De acuerdo con Castagna, si bien la colección se constituyó con material adquirido por el proprio conservatorio, la institución recibió también muchas donaciones. Son los casos de los archivos personales de cuatro compositores que fueron docentes de la institución: João Pedro Gomes Cardim (1832-1918), Carlos de Campos (1866-1927), João Gomes de Araújo (1846-1943) y João Gomes Junior (1868-1963). “Son autores poco conocidos, sin ediciones y grabaciones recientes”, comenta Castagna. “Gomes Cardim, por ejemplo, compuso el Hino da Abolição en 1881 para su ejecución y para recaudar fondos destinados a las campañas del abolicionista Luís Gama [1830-1882]”.
El investigador y su equipo encontraron al menos 275 obras inéditas de los cuatro compositores. En marzo, se presentaron nueve piezas escritas por Gomes de Araújo para piano solo o canto y piano en el marco de un evento realizado en el auditorio

Abajo, el historiador
Rafael Araújo, de la Fundación Theatro Municipal de São Paulo, manipula las partituras catalogadas por el equipo del musicólogo
Paulo Castagna, de la Unesp
el centro de la ciudad”, comenta Castagna. “Hay registros en los periódicos de la época de que esas dos composiciones se ejecutaron en varias ciudades brasileñas y fueron muy aplaudidas”.
Otro investigador que se esfuerza en difundir obras depositadas en diversos fondos es el musicólogo Tadeu Moraes Taffarello, del Centro de Documentación de Música Contemporánea de la Universidad de Campinas (CDMC-Unicamp). Desde 2021, el especialista viene organizando y editando partituras raras depositadas en el CDMC, de compositores tales como José Antonio Rezende de Almeida Prado (1943-2010) y Dinorá de Carvalho (1895-1980). Con el apoyo de la FAPESP, Moraes Taffarello revisa, digitaliza y publica las partituras en libros digitales de descarga gratuita. El material contiene también información sobre las obras y sus autores, como así también sobre el proceso de edición.
Creado en 1989 por la Unicamp y por el Centre de Documentation de la Musique Contemporaine, de Francia, el CDMC brasileño recibió de la matriz francesa en esa época partituras y grabaciones de músicas del siglo XX provenientes de distintas partes do mundo. “En ese intercambio vinieron muchas partituras y música grabada en cintas que estamos terminando de digitalizar”, comenta Moraes Taffarello. La colaboración culminó 10 años después.
En la actualidad, el CDMC dispone también de un acervo de música erudita brasileña de los siglos XX y XXI. “Contamos con colecciones personales fruto de donaciones, como el archivo de Almeida Prado, constituido por obras del compositor, entre otras”, explica. Alumno del compositor y director Camargo Guarnieri (1907-1993) y de la pianista Dinorá de Carvalho, Prado fue docente de la Unicamp entre 1975 y 2000 y dejó más de 570 composiciones.
En tanto, De Carvalho, entre otras de sus realizaciones, fundó la Orquesta Femenina São Paulo, cuya primera presentación pública se concretó

en 1940. Su material también llegó al CDMC mediante una donación. Moraes Taffarello comenta que, con ocasión del centenario del nacimiento de la pianista, en 1995, amigos y colegas músicos decidieron homenajearla. Solicitaron entonces a quienes tuviesen partituras de composiciones de la pianista que las donasen a la Unicamp, a los efectos de crear allí una colección de la autora. Hasta ahora Moraes Taffarello ha publicado 12 libros digitales. El próximo que saldrá, aún durante este primer semestre de 2025, será la partitura de Manhã radiosa, de De Carvalho. En un artículo preprint (aún sin revisión por pares) de 2025, Moraes Taffarello, el pianista y compositor Vitor Alves de Mello Lopes y la bibliotecaria del CDMC Raquel de Souza sostienen que la pieza para piano solo Lá vae a barquinha carregada de?, publicada en 1939 por la editorial Casa Wagner, salió dos años después, en versión simplificada y con el mismo título, publicada por otra editorial, Ricordi Brasileira. Aun después de esas dos publicaciones, la autora siguió trabajando en la pieza y creó otras versiones hasta llegar a Manhã radiosa, que se estrenó en 1946. “La práctica composicional de Dinorá de Carvalho está atravesada por una construcción que a menudo comprende años de creación, con versiones distintas de la misma obra”, dice Moraes Taffarello.
No siempre es fácil editar las partituras. “Tal como en el caso de Dinorá de Carvalho, a menudo existen varias versiones de una misma pieza”, refuerza Moraes Taffarello. El CDMC mantiene una colaboración con la Orquesta Sinfónica de la Unicamp, dirigida por Cinthia Alireti, quien suele ejecutar las obras en sus presentaciones. Según el investigador, esto le ayuda a mejorar el resultado final de la edición.
Otro reto reside en hallar las partituras completas. Fue lo que sucedió durante la producción del libro digital, ahora en su etapa final de edición, sobre el espectáculo teatral Noite de São Paulo (1936), del dramaturgo Alfredo Mesquita (19071986) y con banda de sonido de De Carvalho. Le faltaba al conjunto la partitura orquestal de la


canción Bamboleia, que se encontraba en el fondo Mário de Andrade del Instituto de Estudios Brasileños de la Universidad de São Paulo (IEBUSP). La colección está formada por libros, partituras, manuscritos, discos y otros documentos del escritor, crítico y musicólogo paulista. “Dinorá de Carvalho fue contemporánea de Mário de Andrade [1893-1945], a quien le dedicó varias de sus composiciones. Es probable que ella misma le haya obsequiado a su amigo la partitura”, comenta la musicóloga Flávia Toni, del IEB-USP, especialista en la obra de De Andrade.
Uno de los trabajos de Toni consistió en organizar el archivo discográfico de Mário de Andrade en 1985, en el marco de un proyecto coordinado por la investigadora Telê Ancona Lopez, de la USP, con el apoyo de la FAPESP. Profesor del Conservatorio Dramático y Musical de São Paulo, De Andrade solía anotar sus impresiones de audición en tapas de cartulina lisas que reemplazaban a las tapas originales de fábrica que cubrían los discos. Los registros se contextualizaron mediante cartas y artículos y generaron el libro A música popular brasileira na vitrola de Mário de Andrade, de 2004, que ahora ha sido reeditado por Edições Sesc en versión ampliada y revisada.
El Colegio de Caraça, que funcionó entre 1820 y 1842 en Minas Gerais, y el Conservatorio Imperial de Música, fundado en 1848 en Río de Janeiro, figuran entre los primeros repositorios de archivos musicales en Brasil. Según Castagna, los estados de São Paulo y Minas Gerais albergan en la actualidad la mayor cantidad de esas colecciones: son 63 y 57 de ellas, respectivamente, con preponderancia de música sacra y de bandas.
El musicólogo Fernando Lacerda Duarte, de la Universidad Federal de Pará (UFPA), ha visitado 225 ciudades de todo el país en busca de esas colecciones, sobre todo de música sacra. “En general requieren de tratamiento. Encontré una colección en el cielorraso de la catedral de la ciudad de Belém

que contenía entre otros artículos partituras, por ejemplo. En ocasiones, los cambios de gestión en una determinada parroquia implican el desechado de un archivo, incluso el musical”, se lamenta. Gracias a sus investigaciones de campo, Lacerda comprobó que el empleo de la lengua local en los cantos católicos ya existía en Brasil desde el siglo XIX, por ejemplo. De manera oficial, el Vaticano permitía únicamente las misas y los himnos cantados en latín. El uso de la lengua local recién se autorizó oficialmente a partir del Concilio Vaticano II (1962-1965). “En Brasil, la lengua local o vernácula se utilizaba en forma continua al menos desde la década de 1860”, afirma el investigador. “Como la Iglesia prohibía el canto en idioma vernáculo, esos himnos aparecían como una melodía popular o tradicional, una manera más eficiente para difundir el mensaje del Evangelio”.
Las partituras no constituyen la única fuente de investigación musicológica. En la colección del musicólogo germano-uruguayo Curt Lange (19031997), el relieve les cabe a las cartas, tal como lo explica la musicóloga Edite Rocha, coordinadora del espacio, que existe desde 1995 y pertenece a la Universidad Federal de Minas Gerais (UFMG). Allí, junto a artículos tales como discos y fotografías, hay un epistolario con más de 100.000 cartas que Lange intercambió con estudiosos, intelectuales, políticos e instituciones entre las décadas de 1920 y 1990.
Desde su estancia entre 1944 y 1945 en Minas Gerais, el musicólogo llevó adelante un vasto estudio de partituras y manuscritos que se convirtieron en una de las principales fuentes de música brasileña en el mundo. “Lange organizó todas las cartas que recibía y también conservó copias de las que enviaba”, explica Rocha, docente de la Escuela de Música de la UFMG. “Su correspondencia, con cuantiosas historias tras bambalinas, hace de él una figura ineludible para los investigadores interesados en la música y en la musicología del siglo XX de Brasil y de Latinoamérica”. l
Los proyectos y artículos científicos consultados para la elaboración de este reportaje aparecen listados en la versión online
Arriba a la izquierda, Dinorá de Carvalho en la década de 1920, y en la parte superior, el musicólogo Curt Lange (el cuarto sentado desde la izq.) en 1934, en un encuentro en Río de Janeiro, con invitados como Mário de Andrade (de blanco)
fotolab el conocimiento en imágenes

Roland Garros al revés
Parece una pelota de tenis en una cancha de arcilla, pero es una microestructura que puede servir de base para fabricar cerámicos refractarios. Lo que parece ser una esfera es a decir verdad una cavidad vista en el microscopio electrónico. La matriz del material está compuesta de óxido de magnesio, con precipitación de un mineral conocido como espinela. La imagen, obtenida en el marco de una investigación que apunta a producir alternativas sostenibles a los agregados que contienen cromo, un elemento que es tóxico para el organismo y para la naturaleza en su forma soluble, fue premiada en el congreso internacional de la Sociedad Americana de Cerámica en el mes de octubre de 2024.
Imagen enviada por el ingeniero de materiales
Otávio Henrique Borges , estudiante doctoral en la Universidad Federal de São Carlos (UFSCar), en Brasil, tomada en colaboración con su director de tesis, Victor Carlos Pandolfelli
FUNDACIÓN DE APOYO A LA INVESTIGACIÓN CIENTÍFICA DEL ESTADO DE SÃO PAULO
PRESIDENTE
Marco Antonio Zago
VICEPRESIDENTE Carmino Antonio de Souza
CONSEJO SUPERIOR Antonio José de Almeida Meirelles, Carlos Gilberto Carlotti Junior, Felipe Ferreira Guimarães Figueiredo, Franklim Shunjiro Nishimura, Helena Bonciani Nader, Herman Jacobus Cornelis Voorwald, Marcílio Alves, Maria Arminda do Nascimento Arruda, Pedro Wongtschowski, Thelma Krug
CONSEJO TÉCNICO ADMINISTRATIVO
DIRECTOR PRESIDENTE Carlos Frederico de Oliveira Graeff
DIRECTOR CIENTÍFICO
Marcio de Castro Silva Filho
DIRECTOR ADMINISTRATIVO Fernando Menezes de Almeida
pesquisafapesp
ISSN 1519-8774
COMITÉ CIENTÍFICO
Luiz Roberto Giorgetti de Britto (Presidente), Ana Claudia Latronico, Ana Claudia Torrecilhas, Ana Cristina Gales, Ana Maria Fonseca de Almeida, Carlos Frederico de Oliveira Graeff, Daniel Scherer Moura, Dario Simões Zamboni, Deisy de Souza, Douglas Zampieri, Eduardo Magalhães Rego, Eduardo Zancul, Fabiana Cristina Komesu, Fernando Menezes de Almeida, Flávio Henrique da Silva, Gustavo Dalpian, Helena Lage Ferreira, João Pereira Leite, José Roberto de França Arruda, Lício Augusto Velloso, Liliam Sanchez Carrete, Luiz Nunes de Oliveira, Luiz Vitor de Souza Filho, Marcio de Castro Silva Filho, Marco Antonio Zago, Mariana Cabral de Oliveira, Marta Arretche, Michelle Ratton Sanchez Badin, Nina Stocco Ranieri, Paulo Schor, Richard Charles Garratt, Rodolfo Jardim Azevedo, Sergio Costa Oliveira, Sidney José Lima Ribeiro, Sylvio Canuto, Vilson Rosa de Almeida
COORDINADOR CIENTÍFICO
Luiz Roberto Giorgetti de Britto
DIRECTORA DE REDACCIÓN
Alexandra Ozorio de Almeida
EDITOR EN JEFE
Neldson Marcolin
EDITORES
Fabrício Marques (Política C&T ) Carlos Fioravanti (Ciencias de la Tierra)
Marcos Pivetta (Ciencias Exactas) Maria Guimarães (Ciencias Biológicas) Ricardo Zorzetto (Ciencias Biomédicas)
Yuri Vasconcelos (Tecnología)
Ana Paula Orlandi (Humanidades) Christina Queiroz (Editora asistente)
REPORTERA Sarah Schmidt
ARTE Claudia Warrak (Editora)
Júlia Cherem Rodrigues y Maria Cecilia Felli (Diseñadoras)
Alexandre Affonso (Editor de infografías)
FOTÓGRAFO
Léo Ramos Chaves
BANCO DE IMÁGENES
Valter Rodrigues
TRADUCCIÓN
Damian Kraus, Ariel Kraus y Geraldine Kraus (editorial )
REVISIÓN
Damian Kraus y Ariel Kraus
COLABORADORES
Danilo Albergaria, Eduardo Magossi, Gilberto Stam, Giselle Soares, Otávio Henrique Borges, Renata Fontanetto
IMPRESIÓN
Elyon Soluções Gráficas
PROHIBIDA LA REPRODUCCIÓN TOTAL O PARCIAL DE TEXTOS, FOTOS, ILUSTRACIONES E INFOGRAFÍAS
SIN LA DEBIDA AUTORIZACIÓN PREVIA
GESTIÓN ADMINISTRATIVA
FUSP – FUNDACIÓN DE APOYO A LA UNIVERSIDAD DE SÃO PAULO
PESQUISA FAPESP
Rua Joaquim Antunes, nº 727, 10º piso
CEP 05415-012, São Paulo, SP, Brasil
FAPESP
Rua Pio XI, nº 1.500
CEP 05468-901, São Paulo, SP, Brasil
Secretaría de Desarrollo Económico Ciencia y Tecnología
GOBERNACIÓN DEL ESTADO DE SÃO PAULO


