Archivio blog

venerdì 30 giugno 2017

Engineering Immune Organoids. Ingegneria degli Organoidi Immuni

Engineering Immune Organoids : An Interview with Prof. Ankur Singh from Cornell University Ingegneria degli Organoidi Immuni: Intervista con Prof. Ankur Singh dell'Università di Cornell



Segnalato dal Dott. Giuseppe Cotellessa / Reported by Dr. Giuseppe Cotellessa





B cell lymphomas grow in organoids as clusters, similar to those in patients. The green fluorescent areas represent lymphoma cells, while the red represents support stromal cells.

I linfomi di cellule B crescono in organoidi come cluster, simili a quelli dei pazienti. Le aree fluorescenti verdi rappresentano le cellule del linfoma, mentre il rosso rappresenta le cellule stromali di supporto.

Organ-on-a-chip technologies are redefining the way in which in vitro models help understand and recapitulate the in vivo environment. The immune system is particularly difficult to model in an in vitro environment because of the complexity of biological, mechanical, and chemical cues that modulate the immune cells. Prof. Ankur Singh, an assistant professor in the Sibley School of Mechanical and Aerospace Engineering at Cornell University, has led the development of organ-on-a-chip models to mimic the complex immune environment.

The organoid captures the early stages of a germinal center, which is the center for initiating an immunological response to infection. These organoids can be tailored to study specific diseases, like asthma, cancer, arthritis and transplant rejection. They represent a quick and easy approach to studying and understanding the mechanisms behind disease initiation and propagation.
Another model being developed in Prof. Singh’s lab is the Lymphoma-on-a-chip technology, that accurately recapitulates the microenvironment for a tumor and can be used to study tumor progression. Moreover, these models can be used to study how the tumors respond to chemotherapy drugs, providing new ways of studying tumor resistance.
Prof. Singh was recently awarded the Society for Biomaterials Young Investigator Award and has several grants from the National Institute of Health to further develop his technologies. We recently had the opportunity to interview Prof. Singh to learn more about his team’s models.
Rukmani Sridharan, Medgadget: How representative are the immune organoids for studying immune disorders compared to a current in vitro and in vivo models?
Prof. Singh: The current version of the immune organoid recapitulates selective aspects of the sub-anatomical parts of a lymph node or spleen where immune cells, which have the potential to respond to infections by producing antibodies, are formed. These immune cells, called B cells, are present in our body as naïve, uneducated cells which receive signaling that transforms them into antibody secreting cells. The organoid mimics the early stages of a germinal center, where B cell differentiation and initiation of immunological responses take place during infection. Maturing cells in current 2D systems are very short-lived and lack the supporting tissue niche, on the other hand, previous attempts to engineer 3D scaffolds have only shown a formation of these highly specialized cells (called Germinal Center B cells) when implanted in vivo, exploiting the host microenvironment. Importantly, these studies did not provide evidence of control over the rate of immune reaction ex vivo or in vivo, and no studies have been reported that demonstrate differentiating B cells can survive ex vivo for successful conversion into the desired phenotype.
We submit that several aspects are still to be incorporated to make it completely similar to the in vivo environment; however, the system is suitable in its current form to determine how extracellular and intracellular factors can affect B cell activation. Understanding the factors that control the production, maturation and long-term survival of B cells is critical for more rapid development of disease-specific B cells, improved immunotherapeutic design (such as vaccines and immunomodulatory drugs) and to provide mechanisms to target disorders resulting from defective B cell process (e.g. immunodeficiency with hyper-IgM, aging, as well as various B cell lymphomas or multiple myeloma).
Medgadget: How long can you keep these organoids in culture? Can they be constantly replenished /maintained to study the changes in immune response over time and changing environmental conditions?
Prof. Singh: The organoids are tunable and can be kept in culture for up to 14 days, however, we already see 100-fold superior response over 4 days and have plentiful cells within 8-10 days. Although longer times are possible, we have not tested this as the peak time for in vivo maturation is around 10 days. These are cultured in standard tissue culture plates and can be constantly replenished /maintained to study the changes in immune response over time and changing environmental conditions.

Medgadget: You have used gelatin and polyethylene glycol as base materials for building the organoids. How closely do these mimic the conditions normally found in the germinal centers in vivo? Do you anticipate using other materials in the future?
Prof. Singh: The rationale for using gelatin was the abundance of adhesive motifs that are found in the germinal center phase of the immune reaction. We have however developed a second generation designer immune organoid which allows us to change the signaling ligand/protein as needed. This organoid is composed of maleimide-functionalized PEG where a simple click chemistry is applied to “click” short peptide of interest, and the peptide represents adhesive motifs found in larger bioadhesive proteins such as vitronectin, laminin, and fibronectin.  PEG itself is an inert material, so this allows us to precisely control the binding of cells to the material.

Medgadget: Your lymphoma-on-a-chip technology sounds very interesting. Could you explain what your plans are with this model?
Prof. Singh: The Lymphoma-on-a-chip technology recapitulates the microenvironment for a tumor and can be used to study tumor progression. Moreover, these models can be used to study how the tumors respond to chemotherapy drugs, providing new ways of studying tumor resistance.

Medgadget: Organ-on-a-chip technologies are becoming more mainstream and more people are coming on board with the idea of using them. How far are we from replacing existing models with these technologies?
Prof. Singh: Organ-on-a-chip platforms are extremely useful for creating developmental and disease models as well as for conducting drug testing studies. They often recapitulate selective aspect of a target organ system and are very effective. Multiple labs are now moving into whole body-on-chip models. Interestingly, almost all of these approaches lack immune system on a chip, primarily because of the layers of complexity of this organ system. It would be less useful to simply put a single type of immune cells in conjunction with body or organ on a chip, and I believe we, as engineers, need to think more deeply about multiple components of the immune system and how one immune cell orchestrates the performance of other immune cells. Our immune organoids are a good example of a system that entails much deeper immunology and focuses on a specialized area of the lymph node. Our next steps would be to integrate other sub-anatomical parts of immune organs and make a more holistic organ on a chip.

Medgadget: What are your plans for commercialization of the technology?
Prof. Singh: Our patents are pending and companies have expressed interest, but we are still in the early stages of assessing our best step forward.
ITALIANO
Le tecnologie basate sugli organi sui micrprocessori stanno ridefinendo il modo in cui i modelli in vitro aiutano a capire e ricapitolare l'ambiente in vivo. Il sistema immunitario è particolarmente difficile da modellare in un ambiente in vitro a causa della complessità di segnali biologici, meccanici e chimici che modulano le cellule immunitarie. Prof. Ankur Singh, professore ordinario presso la Sibley School of Engineering e Ingegneria Aerospaziale dell'Università Cornell, ha condotto lo sviluppo di modelli organi sui microprocessori per imitare il complesso ambiente immunitario.
L'organoide cattura le prime fasi di un centro germinale, che è il centro per iniziare una risposta immunologica all'infezione. Questi organoidi possono essere adattati per studiare malattie specifiche, come l'asma, il cancro, l'artrite e il rigetto del trapianto. Essi rappresentano un approccio rapido e facile allo studio e alla comprensione dei meccanismi che nascono dall'iniziazione e dalla propagazione delle malattie.
Un altro modello sviluppato nel laboratorio di Prof. Singh è la tecnologia Linfoma su microprocessore, che ricapitola accuratamente il microambiente per un tumore e può essere utilizzato per studiare la progressione tumorale. Inoltre, questi modelli possono essere usati per studiare come i tumori rispondono ai farmaci chemioterapici, fornendo nuovi modi per studiare la resistenza tumorale.
Prof. Singh è stato recentemente assegnato alla Società per i Giovani Investigator Award per i Biomateriali e ha fornito diversi contributi all'Istituto Nazionale della Salute per sviluppare ulteriormente le sue tecnologie. Recentemente abbiamo avuto l'opportunità di intervistare Prof. Singh per saperne di più sui modelli del suo gruppo.
Rukmani Sridharan, Medgadget: Quanto sono rappresentativi gli organoidi immunitari per studiare i disturbi immuni rispetto a quelli attuali in vitro e in vivo?
Prof. Singh: La versione attuale dell'organoide immunitario ricapitola gli aspetti selettivi delle parti sub-anatomiche di un linfonodo o di una milza dove vengono formate cellule immunitarie, che hanno il potenziale per rispondere alle infezioni producendo anticorpi. Queste cellule immunitarie, dette cellule B, sono presenti nel nostro corpo come cellule native e non addestrate che ricevono segnalazioni che li trasformano in cellule secernenti anticorpi. L'organoide imita le prime fasi di un centro germinale, dove la differenziazione delle cellule B e l'inizio delle risposte immunologiche avvengono durante l'infezione. Le cellule mature in sistemi 2D attuali sono molto a breve termine e mancano della nicchia di supporto; dall'altro, i tentativi precedenti di ingegnerizzazione degli impalcature 3D hanno dimostrato solo una formazione di queste cellule altamente specializzate (chiamate centrali Germinal Center B) quando sono stati impiantati in vivo, sfruttando il microambiente base. Importante, questi studi non hanno fornito prove di controllo sul tasso di reazione immunitaria ex vivo o in vivo e non sono stati riportati studi che dimostrano che le cellule B differenziali possono sopravvivere ex vivo per una conversione di successo nel fenotipo desiderato.
Diciamo che molti aspetti devono ancora essere incorporati per renderlo assolutamente simile all'ambiente in vivo; tuttavia, il sistema è adatto nella sua forma attuale per determinare come i fattori extracellulari e intracellulari possono influenzare l'attivazione delle cellule B. La comprensione dei fattori che controllano la produzione, la maturazione e la sopravvivenza a lungo termine delle cellule B sono fondamentali per uno sviluppo più rapido di cellule B specifiche per le malattie, un miglioramento della progettazione immunoterapica (come i vaccini e farmaci immunomodulatori) e fornire meccanismi per disturbi dell'obiettivo derivanti da difetto del processo di cellule B (ad es. Immunodeficienza con iper-IgM, invecchiamento, così come vari linfomi di cellule B o mieloma multiplo).
Medgadget: Quanto tempo puoi mantenere questi organoidi nella cultura? Possono essere costantemente riforniti / mantenuti per studiare i cambiamenti nella risposta immunitaria nel tempo e le mutevoli condizioni ambientali?
Prof. Singh: Gli organoidi sono sintonizzabili e possono essere conservati in cultura per un massimo di 14 giorni, tuttavia, abbiamo già una risposta superiore a 100 volte superiore a 4 giorni e abbiamo cellule abbondanti entro 8-10 giorni. Sebbene siano possibili tempi più lunghi, non abbiamo testato questo come momento di punta per la maturazione in vivo sia di circa 10 giorni. Questi sono coltivati ​​in piastre di coltura di tessuti standard e possono essere costantemente riforniti / mantenuti per studiare i cambiamenti nella risposta immunitaria nel tempo e le mutevoli condizioni ambientali.

 Medgadget: Hai usato gelatina e polietilenglicole come materiali di base per la costruzione degli organoidi. Quanto questi simulano le condizioni normalmente riscontrate nei centri germinali in vivo? Si prevede di utilizzare altri materiali in futuro?
Prof. Singh: La logica per l'uso della gelatina è l'abbondanza di motivi adesivi che si trovano nella fase germinale centrale della reazione immunitaria. Abbiamo però sviluppato un organoide immune organizzatore di seconda generazione che ci permette di cambiare il ligando / proteine ​​di segnalazione secondo necessità. Questo organoide è composto da PEG maleimidico-funzionalizzato, dove una semplice chimica di scatto viene applicata per "cliccare" il peptide corto di interesse e il peptide rappresenta motivi adesivi presenti nelle più grandi proteine ​​bioadesive come vitronectina, laminina e fibronectina. PEG stesso è un materiale inerte, quindi questo ci permette di controllare con precisione il legame delle cellule al materiale.
Medgadget: la tua tecnologia linfoma su microprocessore è molto interessante. Puoi spiegare quali sono i tuoi progetti con questo modello?
Prof. Singh: La tecnologia linfoma su microprocessore ricapitola il microambiente per un tumore e può essere utilizzato per studiare la progressione tumorale. Inoltre, questi modelli possono essere usati per studiare come i tumori rispondono ai farmaci chemioterapici, fornendo nuovi modi per studiare la resistenza tumorale.
Medgadget: le tecnologie orgai su processori  diventando più importanti e più persone stanno arrivando a decidere di usarli. Quanto dobbiamo sostituire i modelli esistenti con queste tecnologie?
Prof. Singh: Le piattaforme organi su microprocessori sono estremamente utili per la creazione di modelli di sviluppo e malattie nonché per la conduzione di studi sulla droga. Essi spesso ricapitolano l'aspetto selettivo di un sistema di organi bersaglio e sono molto efficaci. Molti laboratori si stanno muovendo in modelli interi su sitemi su microprocessore. È interessante notare che quasi tutti questi approcci non dispongono di un sistema immunitario su un chip, soprattutto a causa degli strati di complessità di questo sistema organico. Sarebbe meno utile mettere semplicemente un singolo tipo di cellule immunitarie in combinazione con il corpo o l'organo su un chip, e credo che, come ingegneri, dobbiamo pensare più a fondo su più componenti del sistema immunitario e come una cellula immunitaria organizzerà  la prestazione di altre cellule immunitarie. I nostri organoidi immuni sono un buon esempio di un sistema che comporta un'immunologia molto più apprfondita e si concentra su un'area specializzata del linfonodo. I nostri passi successivi consisterebbero nell'integrare altre parti subatomiche di organi immuni e creare un organo più olistico su un chip.
Medgadget: Quali sono i tuoi progetti per la commercializzazione della tecnologia?
Prof. Singh: I nostri brevetti sono in sospeso e le aziende hanno espresso interesse, ma siamo ancora nelle prime fasi di valutazione delle succesive decisioni.
Da:
https://www.medgadget.com/2017/06/engineering-immune-organoids-interview-prof-ankur-singh-cornell-university.html

GENIO Italiano Giuseppe Cotellessa: Nuove strategie per il tumore al seno metastatico ...

GENIO Italiano Giuseppe Cotellessa: Nuove strategie per il tumore al seno metastatico ...: Nuove strategie per il tumore al seno metastatico /  New strategies for metastatic breast cancer. Segnalato dal Dott. Giuseppe Cotel...

GENIO Italiano Giuseppe Cotellessa: Third Pole’s On-Demand Portable iNO / Dispositivo ...

GENIO Italiano Giuseppe Cotellessa: Third Pole’s On-Demand Portable iNO / Dispositivo ...: Third Pole’s On-Demand Portable iNO: Interview with Dr. Warren Zapol / Dispositivo portatile iNO su richiesta della società Terzo Polo: In...

GENIO Italiano Giuseppe Cotellessa: Il mistero dei SAVANT / The mystery of SAVANT

GENIO Italiano Giuseppe Cotellessa: Il mistero dei SAVANT / The mystery of SAVANT: Il mistero dei SAVANT /  The mystery of SAVANT Segnalato dal Dott. Giuseppe Cotellessa / Reported by Dr. Giuseppe Cotellessa ...

La durata della vita ha un limite massimo? / Has life expectancy a maximum limit?

La durata della vita ha un limite massimo? / Has life expectancy a maximum limit?


Segnalato dal Dott. Giuseppe Cotellessa / Reported by Dr. Giuseppe Cotellessa




Secondo un nuovo studio non ci sarebbe alcun limite massimo della vita, suggerendo come questo segua la stessa tendenza del tasso della durata media della vita.


La persona più anziana del mondo? Fino a poco tempo fa era Emma Morano, una donna italiana morta l’aprile scorso a ben 117 anni, diventata così la quinta persona più longeva di tutti i tempi. Gli ultra-centenari, persone come appunto Morano, continuano ad affascinare le menti degli scienziati, che si domandano se esista o meno un limite naturale all’età degli essere umani. Secondo un nuovo studio canadese, appena pubblicato su Nature, non esisterebbe alcuna prova di un limite massimo all’età di un essere umano, un risultato che contraddice, parzialmente, quelli cui erano giunte diverse ricerche precedenti.
Infatti, un studio pubblicato a ottobre scorso su Nature aveva concluso che la crescita della durata massima della vita fosse destinata a rallentare fino a raggiungere un punto di arrivo, ovvero i 125 anni di età. O meglio, gli autori avevano calcolato che la probabilità che qualcuno riesca a sopravvivere e superi questa soglia sarebbe una su diecimila. Secondo il team di ricercatori, questo limite naturale non è stabilito da geni programmati, ma è da intendersi piuttosto come un limite biologico, un effetto collaterale dello sviluppo, modellato dall’evoluzione.
Ma ora la ricerca due biologi della McGill University (in Canada), Bryan G. Hughes e Siegfried Hekimi, è arrivata a una conclusione decisamente diversa: analizzando la durata della vita delle persone più anziane degli Stati Uniti, Regno Unito, Francia e Giappone per ogni anno dal 1968, i due ricercatori non hanno trovato alcuna prova dell’esistenza di questo limite naturale.
Non sappiamo quale potrebbe essere questo limite d’età”, spiega Hekimi. “Infatti, per ora, possiamo dimostrare che la durata massima e la durata media della vita potrebbero continuare ad aumentare in futuro”. Come spiegano i ricercatori, l’aspettativa di vita è migliorata notevolmente nel corso degli anni: nel 1920, per esempio, un neonato poteva aspettarsi di vivere 60 anni, uno nato nel 1980 76 anni e oggi l’aspettativa di vita è salita a 82 anni. “Il limite massima della vita sembrerebbe seguire lo stesso trend”, aggiunge l’autore.
Secondo alcuni scienziati nell’ultimo secolo l’innovazione tecnologica, i progressi della medicina e i miglioramenti delle condizioni di vita in generale contribuiscono a prolungare il più possibile l’aspettativa di vita media, alzando di conseguenza il limite naturale dell’età degli esseri umani. “È impossibile stabilirlo”, conclude Hekimi. “300 anni fa, molte persone vivevano una vita molto breve. Se avessimo detto loro che un giorno la maggior parte degli esseri umani poteva vivere fino a 100, ci avrebbero preso per pazzi”.
A prescindere se esista o meno un limite massimo di età, è fuori discussione che l’aspettativa di vita media stia aumentando notevolmente, portandoci a vivere sempre più a lungo. Ricordiamo infatti, che secondo uno studio inglese dell’Imperial College di Londra e dell’Oms, apparso su Lancet a febbraio scorso, nel 2030 l’aspettativa di vita sarà superiore ai 90 anni. Discorso a parte, invece, deve essere fatto per l’Italia, che secondo l’ultimo Rapporto di Osservasalute 2016, nel nostro paese l’aspettativa di vita risulta essersi abbassata, con una notevole disparità tra le regioni del Nord e del Sud, dovuta probabilmente a una minor disponibilità delle risorse economiche e dei servizi sanitari del Sud.
ENGLISH
According to a new study, there would be no maximum limit on life, suggesting that this follows the same trend as the rate of average life expectancy.
The oldest person in the world? Until recently, Emma Morano, an Italian woman who died last April at 117, became thus the fifth longest person of all time. The ultra-centuries, people like Morano, continue to fascinate the minds of scientists, wondering whether there is a natural limit to the age of humans. According to a new Canadian study, just published in Nature, there would be no evidence of a maximum limit at the age of a human being, a result contradicting, in part, those that had come up with several previous kinds of research.
In fact, a study published in Nature last October concluded that the growth of maximum life expectancy would be slowed down to reach a point of arrival or 125 years of age. Or rather, the authors had calculated that the probability that someone could survive and exceed this threshold would be one in ten thousand. According to the team of researchers, this natural limit is not set by programmed genes but is rather a biological limit, a side effect of development, modeled by evolution.
But now, research by two biologists at McGill University in Canada, Bryan G. Hughes and Siegfried Hekimi, has come to a very different conclusion: analyzing the life expectancy of older people in the United States, the United Kingdom, France and Japan Every year since 1968, the two researchers have found no evidence of the existence of this natural limit.
"We do not know what this age limit may be," explains Hekimi. "In fact, for now, we can prove that the maximum duration and average life expectancy may continue to increase in the future." As the researchers explain, life expectancy has improved considerably over the years: in 1920, for example, a newborn could expect to live 60 years, one born in 1980 76 years and today life expectancy has risen to 82 years. "The maximum limit of life would seem to follow the same trend," the author adds.
According to some scientists in the last century, technological innovation, advancement in medicine and overall living conditions, in general, contribute to prolonging as much as possible the average life expectancy, thus increasing the natural limit of the age of humans. "It is impossible to establish it," concludes Hekimi. "300 years ago, many people lived a very short life. If we had told them that one day most of the human beings could live up to 100, they would be fooling us. "
Regardless of whether or not there is a maximum age limit, it is out of the question that the average life expectancy is increasing considerably, leading us to live longer and longer. We recall, according to an English study of the Imperial College in London and of the OS, which appeared in Lancet in February last year, in 2030 the life expectancy will be over 90 years. Separate speech, however, must be done for Italy, which according to the latest Report of Osservasalute 2016, in our country the life expectancy has decreased, with a considerable disparity between the regions of North and South due to Probably at a lower level of economic resources and health services in the South.
Da:
https://www.wired.it/scienza/lab/2017/06/29/durata-vita-limite-massimo/

giovedì 29 giugno 2017

L'ultimo segreto dell'acqua:ne esistono due. / The last secret of water: there are two.

L'ultimo segreto dell'acqua:ne esistono due. The last secret of water: there are two.

Segnalato dal Dott. Giuseppe Cotellessa / Reported by Dr. Giuseppe Cotellessa




La scoperta di un’équipe di scienziati della Stockholm University pubblicata su Pnas: il liquido più importante per la vita si presenta in due forme diverse, a bassa e ad alta densità.

Costituisce la maggior parte del corpo umano. È ubiqua  sul nostro pianeta. Ed è indispensabile per l’origine e lo sviluppo della vita. Tanto da essere la sostanza che la comunità scientifica, da sempre, ha analizzato con più attenzione e meticolosità. E pure, l’acqua riesce ancora a stupirci con le sue innumerevoli e bizzarre caratteristiche. L’ultima, in ordine di tempo, è quella appena scoperta da un team di fisici sperimentali della Stockholm University, che sono riusciti a mostrare l’esistenza di due forme diverse di acqua, in termini di struttura e densità. I dettagli della ricerca sono stati pubblicati sulle pagine dei Proceedings of the National Academy of Sciences.

“Si tratta di una proprietà abbastanza unica nel suo genere”, racconta Anders Nilson, docente di fisica all’ateneo scandinavo e coautore del lavoro. “Sostanzialmente, servendoci dei raggi X, abbiamo scoperto che l’acqua esiste come due liquidi dalle proprietà differenti – tecnicamente si parla di ‘fasi’ – a basse temperature, quando la cristallizzazione in ghiaccio è particolarmente lenta”.

In particolare, per scoprirlo i fisici si sono serviti di due diverse tecniche sperimentali: il cosiddetto wide-angle X-ray scattering, che prevede l’illuminazione di un campione con luce a raggi X per determinarne la struttura atomica, e la spettroscopia a raggi X, che fornisce informazioni sul movimento delle molecole. Gli esperimenti sono stati eseguiti allo Argonne National Laboratory, a Chicago e al laboratorio Desy di Amburgo: combinando le informazioni così ottenute, gli scienziati sono riusciti a ottenere una “fotografia” senza precedenti della struttura e delle dinamiche dell’acqua a livello nanoscopico.

“I raggi X”, spiega Fivols Perakis, un altro degli autori del lavoro, “ci hanno permesso di determinare l’evoluzione temporale delle posizioni delle molecole di acqua e studiarne la disposizione a basse temperature, evidenziando la presenza di un cambiamento strutturale della sostanza”. Di cosa si tratta precisamente? Per comprenderlo bisogna partire dal ghiaccio, che in natura esiste in due forme diverse: una struttura cristallina, in cui le molecole sono “ordinate” secondo una precisa disposizione geometrica, e la cosiddetta struttura amorfa – che tra l’altro è la più abbondante in natura –, priva di un ordinamento preciso. A sua volta, il ghiaccio amorfo esiste in due forme, a bassa e alta densità. Fin qui, niente di nuovo: le proprietà delle due diverse forme di ghiaccio amorfo, così come le dinamiche che regolano il passaggio del ghiaccio da una forma all’altra, sono da tempo note alla comunità scientifica.

I fisici di Stoccolma hanno cercato di rispondere a una domanda invece ancora irrisolta. E cioè se, analogamente al ghiaccio, anche l’acqua liquida potesse esistere nelle due forme ad alta e bassa densità: “Le osservazioni sperimentali che abbiamo eseguito”, spiegano ancora, “ci hanno permesso di mostrare, per l’appunto, che l’acqua, a livello atomico, può esistere – o addirittura coesistere – in due stati ben diversi, un liquido viscoso e un cosiddetto liquido a regime ultra-viscoso, dalla densità molto più bassa”.

Il quadro descritto dagli scienziati è molto suggestivo: “È come se l’acqua non riuscisse a ‘decidere’ in quale stato stare – quello a bassa o alta densità – e continuasse a oscillare, microscopicamente, tra i due stati. Ovvero: la sostanza non è un liquido, ma due liquidi diversi che hanno una relazione complicata”. Altro che facile come bere un bicchier d’acqua.

ENGLISH


The discovery of a team of scientists from Stockholm University published on Pnas: The most important fluid for life comes in two different forms, low and high density.

It constitutes most of the human body. It is ubiqua on our planet. And it is indispensable for the origin and development of life. So much so that it is the substance that the scientific community has always been analyzing with greater attention and meticulousness. And yet, water still laughs at us with its countless and bizarre features. The last, in time order, is just discovered by a team of experimental physicists at Stockholm University, who have been able to show the existence of two different forms of water in terms of structure and density. The details of the research have been published in the pages of the Proceedings of the National Academy of Sciences.

"This is a fairly unique property of its kind," says Anders Nilson, a physics professor at the Scandinavian University and co-author of the work. "Basically, using X-rays, we have found that water exists as two fluids of different properties - technically it is referred to 'phases' - at low temperatures when ice crystallization is particularly slow.

In particular, in order to find out, the physicists used two different experimental techniques: the so-called wide-angle X-ray scattering, which envisages the illumination of an X-ray light sample to determine its atomic structure, and the radius spectroscopy X, which provides information on the movement of molecules. Experiments were carried out at the Argonne National Laboratory in Chicago and at the Desy Lab in Hamburg. By combining the information obtained, scientists were able to obtain unprecedented "photography" of the structure and dynamics of water at the nano-scoping level.

"The X-rays," explains Fivols Perakis, another author of the work, "have allowed us to determine the time evolution of the positions of water molecules and study its layout at low temperatures, highlighting the presence of a structural change in the substance ". What exactly is this? To understand it, one must start from the ice, which in nature exists in two different forms: a crystalline structure in which the molecules are "ordered" according to a precise geometric arrangement, and the so-called amorphous structure - which among other things is the most abundant in Nature - without a precise order. In turn, amorphous ice exists in two shapes, low and high density. So far, nothing new: the properties of the two different forms of amorphous ice, as well as the dynamics that regulate the passage of ice from one form to another, have long been known to the scientific community.

The Stockholm physicists tried to answer a still unsolved question. That is, if, like ice, liquid water could exist in the two forms of high and low density: "The experimental observations we have performed," they further explain, "allowed us to show, by the very at the atomic level, water can exist - or even coexist - in two very different states, a viscous liquid and a so-called ultra-viscous liquid with a much lower density. "

The picture depicted by scientists is very impressive: "It is as if water could not decide which state to stand - low or high density - and continue to oscillate, microscopically, between the two states. That is: the substance is not a liquid, but two different liquids that have a complicated relationship. " Just as easy as drinking a glass of water.


Da:

http://www.repubblica.it/scienze/2017/06/28/news/l_ultimo_segreto_dell_acqua_ne_esistono_due-169391449/?ref=fbpr




Hand-Held Probe Can Detect Cancer Cells in Real-Time During Surgery. / La sonda a mano può rilevare le cellule tumorali in tempo reale durante l'intervento di chirurgia.

Hand-Held Probe Can Detect Cancer Cells in Real-Time During Surgery.La sonda a mano può rilevare le cellule tumorali in tempo reale durante l'intervento di chirurgia.


Segnalato dal Dott. Giuseppe Cotellessa / Reported by Dr. Giuseppe Cotellessa

Scientists in Montreal, Canada have perfected a hand-held Raman spectroscopy probe that surgeons can use to distinguish between cancer cells and normal tissue.
Raman spectroscopy is a technique that involves shining light on a material and analyzing how it scatters. Scientists have used the method for years to analyze and characterize living tissues and cells. This probe is the latest iteration of a Raman device this research team first developed in 2015. They have now perfected the design, and the new device has improved accuracy and is highly specific. It can reportedly detect brain, lung, colon and skin cancer cells, with almost 100% sensitivity.
In practical terms, a surgeon can point the probe at a suspect tissue during surgery and see if it contains any cancerous cells. This could be a game changer, as sometimes tumors are very difficult to distinguish from healthy tissue. “Minimizing, or completely eliminating, the number of cancer cells during surgery is a critical part of cancer treatment, yet detecting cancer cells during surgery is challenging,” explains Dr. Kevin Petrecca, a neurosurgical oncology specialist, and author on the recent study published in Cancer Research. “Often it is impossible to visually distinguish cancer from normal brain, so invasive brain cancer cells frequently remain after surgery, leading to cancer recurrence and a worse prognosis. Surgically minimizing the number of cancer cells improves patient outcomes.”
The new probe incorporates fluorescence spectroscopy to analyze the metabolic composition of the cells. The first probe is currently being tested in a large-scale clinical trial on patients with brain tumors. However, in a smaller trial, the new probe demonstrated a 10% increase in cancer detection sensitivity compared with the older design.
Schematic depiction of the probe being used to interrogate brain tissue during surgery. The image shows a photograph of the probe held by a surgeon, Raman spectral associated with normal brain and cancer, as well as a magnetic resonance image (MRI) of a brain cancer patient with the red area representing the tumor.
Rappresentazione schematica della sonda utilizzata per analizzare il tessuto cerebrale durante l'intervento chirurgico. L'immagine mostra una fotografia della sonda detenuta da un chirurgo, il graficoRaman spettrale associato al cervello normale e al cancro, nonché un'immagine a risonanza magnetica (MRI) di un paziente con cancro al cervello con l'area rossa che rappresenta il tumore.

ITALIANO
Gli scienziati di Montreal, in Canada, hanno perfezionato una sonda di spettroscopia Raman che i chirurghi possono utilizzare per distinguere tra cellule tumorali e tessuti normali.
La spettroscopia di Raman è una tecnica che prevede l'invio della luce brillante su un materiale e analizza il modo in cui scompare. Gli scienziati hanno usato il metodo da anni per analizzare e caratterizzare i tessuti e le cellule viventi. Questa sonda è l'ultima iterazione di un dispositivo Raman che questo gruppo di ricerca ha sviluppato per la prima volta nel 2015. Ora hanno perfezionato la progettazione e il nuovo dispositivo ha migliorato l'accuratezza ed è altamente specifico. Può essere usato per rilevare cellule del cervello, del polmone, del colon e della pelle, con una sensibilità quasi del 100%.
In pratica, un chirurgo può puntare la sonda in un tessuto sospetto durante l'intervento chirurgico e vedere se contiene delle cellule cancerose. Questo potrebbe essere molto importante, poiché talvolta i tumori sono molto difficili da distinguere dai tessuti sani. "Minimizzare o eliminare completamente il numero di cellule tumorali durante l'intervento chirurgico è una parte critica del trattamento del cancro, ma la rilevazione delle cellule tumorali durante l'intervento chirurgico è impegnativa", spiega il dottor Kevin Petrecca, un specialista di oncologia neurochirurgica e autore sul recente studio pubblicato nella ricerca sul cancro. "Spesso è impossibile distinguere visivamente il cancro dal cervello normale, quindi le cellule tumorali invasive del cervello rimangono spesso dopo l'intervento chirurgico, portando alla ricorrenza del cancro e a una prognosi peggiore. Minimizzare chirurgicamente il numero delle cellule tumorali migliora i risultati dei pazienti ".
La nuova sonda incorpora spettroscopia a fluorescenza per analizzare la composizione metabolica delle cellule. La prima sonda è attualmente in fase di sperimentazione in uno studio clinico su larga scala sui pazienti con tumori cerebrali. Tuttavia, in una prova con minori pazienti, la nuova sonda ha dimostrato un aumento del 10% della sensibilità al rilevamento del cancro rispetto al dispositivo precedente.
Da:
https://www.medgadget.com/2017/06/hand-held-probe-can-detect-cancer-cells-real-time-surgery.html

Computer Vision Applications in Mental Health: An Interview with Dr. LP Morency. Applicazioni di analisi dell'immagine con il computer nella salute mentale: un'intervista con il Dott. LP Morency

Computer Vision Applications in Mental Health: An Interview with Dr. LP Morency.  The application process of the ENEA patent RM2012A000637 is indispensable in solving this problem. / Applicazioni di analisi dell'immagine con il computer nella salute mentale: un'intervista con il Dott.  LP Morency. L'applicazione  procedimento del brevetto ENEA RM2012A000637 è indispensabile nella soluzione di questa problematica.


Segnalato dal Dott. Giuseppe Cotellessa / Reported by Dr. Giuseppe Cotellessa



The National of Mental Health estimates that more than 40 million adults in the US experienced some form of mental illness in 2015, 16 million (or almost 7% of the US population) of which experienced at least one major depressive episode. Over their lifetime, almost 30% of US adults will develop an anxiety disorder.
This presents a massive load on the healthcare system and requires particularly adept clinicians that can skillfully and quickly diagnose a given mental illness. Even once diagnosed, judging the success of a treatment and gauging how well a patient responds to intervention could be a subjective exercise. In an effort to assist clinicians with these difficult tasks, researchers are looking into bringing computer vision advances into the clinic. MedGadget had the opportunity to chat with Dr. Louis-Philippe Morency, a Carnegie Mellon Professor who is a leader in this field, about his group’s MultiSense technology.
Mohammad Saleh, Medgadget: Tell us about your work on computer vision and human interaction.
Dr. Louis-Philippe Morency: We are developing technologies to automatically sense human non-verbal behaviors such as facial expressions, eye gaze, head gestures, and vocal non-verbal behaviors like the voice and its tenseness. The reason we’re automatically detecting these behaviors is to help clinicians working with mental health patients with their diagnosis and treatments of mental disorders such as depression, anxiety, PTSD, schizophrenia, and autism.

Medgadget: How does it work? Can you touch on the science underlying these algorithms?
Morency: One of the cornerstone algorithms, from a computer-vision perspective, is facial landmark detection. It automatically identifies the position of 68 “landmarks” or key points on the face. These were defined over the years as being reliable to track over time. Examples are the eyebrow positions, contour of the mouth, the eye corners, and jaw contours. These are cornerstones for a later stage of analysis because knowing their current shapes really helps understand and recognize the facial expression. This is coupled with things like head-tilt and eye-gaze estimations.
Medgadget: How much information can you get from these 68 facial parameters? How do you help a computer interpret them to actually “read” an expression?
Morency: These usually allow us to start looking at muscle changes, which in a sense is a way of quantifying facial expression. There was some very well received work early on from Paul Ekman about facial action coding systems and was popularized in recent years through the TV show “Lie To Me”. It’s the idea that muscles of the face can be reliably annotated and are informative to interpret emotions. Depending on how you count it, there are about 28-50 facial action units, so the motion of these landmarks and wrinkles on the face allow us to identify which muscle changes. This information is still low-level, but later on, we interrogate it over time to look for indicators of depression, anxiety, or PTSD.
Through great collaborations with clinicians in the mental health field and medical centers such as McLean Hospital, we gathered large datasets of interviews. For depression, we had almost 500 participants who interacted with our system, and as they were talking about the system we analyzed their non-verbal behaviors. So over time, we aggregate these numbers through some summative statistics to look at correlations between the non-verbal behaviors and their depression scale. That allowed us to identify the behavioral indicators that are best correlated with depression. This gave us about 20 behavioral indicators for depression which can be summarized for a doctor.
We’d like to eventually use this for screening, but in the short-term, the main use-case for this technology is for monitoring patients during treatments. It’s much easier to look at changes in behavior over time for the same person than to use it on a new person you’ve never seen before. There’s a lot of calibration that’s needed when you see a person for the first time – you adapt to their unique idiosyncrasies. But when you see them over time then you can gauge whether there have been changes between sessions. This could be useful for clinicians, help indicates whether the treatment is going well, or if therapy approaches or medications need to be altered.
As for the technology under the hood, we depend on some AI algorithms – a lot of the technology behind it is based on probabilistic graphical models for facial landmark detection. We’ve also recently worked with more deep learning and neural network approaches.
Medgadget: Do you go into this telling the algorithm that these are all patients, or are you “blinding” it and letting the computer pick up on it and compare them to “normal” behaviors?
Morency: For some of our early studies, like the one with 500 volunteers, not everyone was a patient from the hospital. They were participants that were invited to come talk to our computer system or to an interviewer. Before and after people interacted with our system, we had them fill a questionnaire for depression, PTSD, and anxiety self-reporting. From these 500, we had somewhere around 15-20 percent with symptoms related to depression, about the same range for PTSD, and might have been higher for anxiety. It was an interesting population because it was more representative of the real-world. You could also imagine that observing a large a range of symptoms was challenging because the people who are very depressed will be admitted into hospital units. So we were looking at patients on the lower range of depressive symptoms. Now, though, we’ve also started working with hospitals to study referrals from the ER (when we recently started studying suicidal ideation). With McLean Hospital, we’re really working with patients.

Medgadget: You mentioned calibration being an important factor, particularly in setting a baseline measurement. I’m wondering – how accurate are these algorithms?
Morency: We’re working on this for an academic purpose. The goal of the software is not to diagnose depression, that’s always the job of the doctor. We’re building these algorithms as decision support tools for the clinicians so that they can do their assessments. But from an academic perspective, we do want to know how well these behavioral markers are correlating with the assessment of clinicians. We’ve done this work and seen a 78% correlation. So it’s not 100%, but our data is significant. We’re definitely heading in the right direction! It’s also important to note that these algorithms work best when we have a specific patient interview style. Open-ended questions help us gather these non-verbal cues. We want questions that try to bring out the emotion and memories of the patient, and we can get those correlations when these types of questions are asked by the clinicians.
Medgadget: Where do you envision this technology in a clinical setting? How has it looked so far and how will that change?
Morency: The early stage of the technology was looking at screening for depression, PTSD, or anxiety. But eventually as the technology became more mature, we’re seeing the best use case is in treatment. We’re working closely with McLean Hospital to study patients in hospital units. We’re currently looking at a population for psychosis (which includes schizophrenia and bipolar disorder) to look for their behavior markers over time. We’d like to better identify the type of psychosis and give live feedback to clinicians.
Medgadget: Do any other factors play into these visual biomarker assessments? You mentioned visual non-verbal aspects, but do you take into account vocal or behavioral aspects as well?
Morency: Now that we are getting these promising results from non-verbal cues, our next line of research looks at the verbal aspects and the content of what they’re saying. We’re interested in patient lexical and grammatical usage and how that changes. Some previous studies have already seen some signs related to language usage in schizophrenia. But we’re also interested in these because non-verbal behaviors are best understood when they are contextualized with the verbal cues. The gestures and facial expression of a person are often better interpreted if you can see them. So this multi-modal analysis is what we’re pushing our algorithms to do.
Medgadget: That makes sense! It’s like trying to watch TV while it’s on mute – you don’t understand as much as you would if the volume was on.
Morency: Exactly! So our early work was using the only video. It’s quite amazing that we were able to get such behavioral indicators while muting. We’re expecting much more robust indicators as we begin to integrate verbal cues.
Medgadget: You mentioned a few different medical conditions. Does the algorithm itself change between the different conditions?
Morency: You could see it as a three-layer problem. The first two layers generalize quite well between populations. One of them is unimodal and almost instantaneous sensing where you quantify the expression and gaze from the image. The second layer is integrating that information over time for recognition. These two seem to work well for our purposes since we are serving mostly adults. We’ve done some work with teenagers, but not with children. We’re expecting to have to adapt the first two layers for those contexts.
The last layer is the detection of specific behavioral markers, and these are definitely specific to each disorder. We see some markers that generalize between depression and PTSD, for example, but a lot of them do change.
An example of some of these behavioral markers, think about smiling in depression. When we studied it, we were expecting that people who are depressed smile less often than others. It turns out that we were seeing about the same number of smiles, but surprisingly the dynamic of the smile was different. Those who were depressed had a shorter smile with less amplitude. It seems that because of social norms, they smile to be polite in a sense, but don’t feel it as much.
Another really interesting example comes from looking at PTSD. We expected more negative facial expressions from those affected. We didn’t see any distinction like that. However, when we separated men and women, men with PTSD showed an increase in negative facial expressions, while women showed a decrease. That was really interesting because it’s a gender-specific interaction that is probably also founded in social norms – men are typically allowed to show their negative expressions in American culture, but women are often expected to be more “smiley.”
Medgadget: So given how social norms factor into these behavioral cues, how well would these algorithms apply in different cultures? Is it particularly calibrated to Western norms?
Morency: We expect that some of these factors will generalize, but there will definitely be some changes. We have some indicators that gaze behavior, for example, changes. There is a reduction in eye-contact when one is depressed, but in a different culture where it’s respectful not to make eye-contact, we expect the trend will still be observable, but to a lesser extent. That’s actually something we want to test, and are very interested in collaborating with international institutions to study it.
Dr. Morency gave a talk about his research at the World Economic Forum in 2015.
Medgadget: It sounds like a lot of what you’re doing is trying to get at the emotions underlying human interactions. You’ve also mentioned your interest in applications dealing with autism. Could you touch on the intersection of those two?
Morency: One aspect we’re interested in is to help better categorize and diagnose patients with autism. That’s work we’re doing with our collaborator at Yale University. But we’re also interested in helping them with general interactions and public speaking. We have a system with USC which is designed for everyone but will be particularly well-suited for people on the lower part of the autism spectrum. The goal is to help them speak publicly and eventually present themselves for job interviews. So, although we’re interested in the uses for this technology in a clinical setting, there’s room for its use as a training system that gives live feedback to the user.
Medgadget: I came across a paper of yours looking at speech-patterns in suicidal teenagers. What was that about?
Morency: The suicidal teens' study was another surprising result. We were very interested in studying teenagers who visit the ER with suicidal attempts or ideation. The goal originally was to differentiate between those with and without suicidal thoughts. It was previously demonstrated that the way language is used can serve as a marker. Those with suicidal thoughts use personal pronouns like “me” and “myself” a lot more often. We were able to differentiate between them based on their language use. But what we really wanted to do was to be able to predict repeated suicide attempts. So we called them a few weeks later to inquire, and it turns out that the breathiness quality of the voice was predictive of reattempts. It was counter-intuitive – we thought that a tense voice would be the most predictive. One hypothesis is that they’ve already made up their minds and have made peace with it, so their voice is breathy instead of tense.
Medgadget: So what’s your vision for this field of work over the next decade or two?
Morency: We’re seeing a great openness from the medical field to integrate technology. In the next 5 years or less, we’ll see more validation studies. We’re seeing so many promising results for behavioral markers, and we’ll see more studies looking at how these results generalize and apply in different contexts. We’ll also see this technology coming into the field of telemedicine. Specialists are not always available locally to the patient, so being able to interact remotely and gather behavioral markers along the way is an aspect we see having a huge impact on the healthcare field in the coming years.
Medgadget: Are there any applications beyond the medical context that this technology could be used for?
Morency: It’s helpful for at least two more applications. One is for mining online videos. There’s a huge wealth of information from people posting videos online to express their opinions about everything! So summarizing these videos and being able to understand what they’re talking about and the opinions they’re expressing – what is sometimes called opinion mining or sentiment analysis – is a very intriguing application of our multi-modal system. Another line of research that personally excites me is to push forward an agenda to help with online-learning. It’s a field that has huge potential, but we’re not seeing all positive results. We believe this technology could help students have more productive, remote work groups. We want to bring some of the advantages of face-to-face interactions to an online collaborative setting.
ITALIANO
Il National of Mental Health stima che più di 40 milioni di adulti negli Stati Uniti abbiano sperimentato una qualche forma di malattia mentale nel 2015, 16 milioni (o quasi il 7% della popolazione americana) hanno sperimentato almeno un episodio depressivo maggiore. Durante la loro vita, quasi il 30% degli adulti americani svilupperà un disturbo d'ansia.
Questo presenta un carico enorme sul sistema sanitario e richiede specialisti esperti che possano sapientemente e rapidamente diagnosticare una determinata malattia mentale. Anche una volta diagnosticata, il giudicare il successo di un trattamento e misurare quanto bene un paziente risponde all'intervento potrebbe essere un esercizio soggettivo. Nel tentativo di aiutare i medici con questi compiti difficili, i ricercatori stanno cercando di portare avanti l'analisi dell'immagine con il computer nella clinica. MedGadget ha avuto l'opportunità di chattare con il dottor Louis-Philippe Morency, un professore di Carnegie Mellon che è un leader in questo campo, sulla tecnologia MultiSense di suo gruppo.

Mohammad Saleh, Medgadget: Dimmi il tuo lavoro sull'analisi dell'immagine del computer e l'interazione umana.
Dr. Louis-Philippe Morency: Stiamo sviluppando tecnologie per sensibilizzare automaticamente i comportamenti non verbali umani come espressioni facciali, movimenti degli occhi, gesti della testa e comportamenti vocali non verbali come la voce e la sua tenacia. Il motivo per cui stiamo rilevando automaticamente questi comportamenti è quello di aiutare i medici che lavorano con i pazienti di malattia mentale con la loro diagnosi e trattamenti di disturbi mentali quali depressione, ansia, PTSD, schizofrenia e autismo.
Medgadget: come funziona? Puoi spiegare la scienza che sottende questi algoritmi?
Morency: Uno degli algoritmi di base, da una prospettiva informatica, è il rilevamento del punto di riferimento del viso. Identifica automaticamente la posizione di 68 "punti di riferimento" o punti chiave sul viso. Questi sono stati definiti nel corso degli anni come essere affidabili per monitorare nel tempo. Esempi sono le posizioni del sopracciglio, il profilo della bocca, gli angoli degli occhi e i contorni delle mascelle. Queste sono le basi per una fase successiva di analisi perché conoscere le loro forme attuali contribuisce davvero a comprendere e riconoscere l'espressione del viso. Ciò è accoppiato con le cose come le inclinazioni della testa e le stime dell'occhio-sguardo.
Medgadget: Quante informazioni si possono ottenere da questi 68 parametri facciali? Come aiuta un computer a interpretarli per "leggere" un'espressione?
Morency: di solito ci permettono di iniziare a guardare i cambiamenti muscolari, che in un certo senso è un modo per quantificare l'espressione del viso. C'era già un lavoro molto ben sviluppato da Paul Ekman circa i sistemi di codifica delle azioni del viso ed è stato diffuso negli ultimi anni attraverso la trasmissione televisiva "Lie To Me". È l'idea che i muscoli del viso possano essere affidabilmente annotati e sono informativi per interpretare le emozioni. A seconda di come lo contate, ci sono circa 28-50 unità di azione del viso, in modo che il movimento di questi punti di riferimento e le rughe sul viso ci permettono di identificare quali siano i cambiamenti muscolari. Queste informazioni sono ancora poche, ma in seguito  nel tempo cercheremo indicatori di depressione, ansia o PTSD.
Attraverso grandi collaborazioni con i medici del settore della salute mentale e centri medici come McLean Hospital, abbiamo raccolto grandi set di dati di interviste. Per la depressione, abbiamo avuto quasi 500 partecipanti che hanno interagito con il nostro sistema, e mentre stavano parlando del sistema abbiamo analizzato i loro comportamenti non verbali. Quindi, nel tempo, aggregare questi numeri attraverso alcune statistiche sommarie per esaminare le correlazioni tra i comportamenti non verbali e la loro scala di depressione. Ciò ci ha permesso di individuare gli indicatori comportamentali che sono meglio correlati con la depressione. Ciò ci ha dato circa 20 indicatori comportamentali per la depressione che possono essere sintetizzati per un medico.
Vorremmo finalmente utilizzare questo per la screening, ma a breve termine, il caso principale per questa tecnologia è quello di monitorare i pazienti durante i trattamenti. È molto più facile guardare i cambiamenti nel comportamento nel tempo per la stessa persona che utilizzarlo su una nuova persona che non hai mai visto prima. C'è una grande quantità di calibrazione che è necessaria quando si vede una persona per la prima volta - si adatta alle loro singolari idiosincrasie. Ma quando li vedi nel tempo, puoi valutare se ci sono stati cambiamenti tra le sessioni. Questo potrebbe essere utile per i medici, l'aiuto indica se il trattamento sta andando bene, o se approcci di terapia o farmaci vanno modificati
Per quanto riguarda la tecnologia sottostante, dipendiamo da alcuni algoritmi AI - molte delle tecnologie che si trovano dietro di essa sono basate su modelli grafici probabilistici per il rilevamento del punto di riferimento del viso. Abbiamo anche recentemente lavorato con approcci più approfonditi e connessi alla rete neurale.
Medgadget: vai in questo modo a dire all'algoritmo che questi sono tutti pazienti, o stai lasciando che il computer possa confrontarli con i comportamenti "normali"?
Morency: Per alcuni dei nostri primi studi, come quello con 500 volontari, non tutti erano pazienti dell'ospedale. Sono stati i partecipanti invitati a parlare con il nostro sistema informatico o ad un intervistatore. Prima e dopo che le persone hanno interagito con il nostro sistema, abbiamo dovuto compilare un questionario per la depressione, il PTSD e l'auto-segnalazione di ansietà. Da questi 500 avevamo da qualche parte circa il 15-20% con i sintomi relativi alla depressione, circa la stessa gamma per il PTSD, e potrebbero essere stati più alti per l'ansia. Era una popolazione interessante perché era più rappresentativa del mondo reale. Si potrebbe anche immaginare che l'osservazione di una vasta gamma di sintomi è stata difficile perché le persone che sono molto depresse saranno ammessi in unità ospedaliere. Quindi stavamo guardando i pazienti sulla più bassa gamma dei sintomi depressivi. Ora, però, abbiamo anche iniziato a lavorare con gli ospedali per studiare i rinvii dalla ER (quando abbiamo recentemente iniziato a studiare l' ideazione suicida). Con McLean Hospital, stiamo lavorando veramente con i pazienti.
Medgadget: Hai citato che la calibrazione è un fattore importante, in particolare nell'impostazione di una misurazione della linea di base. Mi chiedo - quanto sono precisi questi algoritmi?
Morency: Stiamo lavorando su questo per uno scopo accademico. L'obiettivo del software non è quello di diagnosticare la depressione, che è sempre il lavoro del medico. Stiamo costruendo questi algoritmi come strumenti di supporto decisionale per i medici in modo che possano fare le loro valutazioni. Ma da una prospettiva accademica, vogliamo sapere come questi marcatori comportamentali sono correlati con la valutazione dei medici. Abbiamo fatto questo lavoro e abbiamo visto una correlazione del 78%. Quindi non è il 100%, ma i nostri dati sono significativi. Siamo sicuramente nella direzione giusta! È anche importante notare che questi algoritmi funzionano meglio quando abbiamo uno stile di intervista del paziente specifico. Le domande aperte ci aiutano a raccogliere questi segnali non verbali. Vogliamo domande che tentino di far emergere l'emozione e le memorie del paziente e possiamo ottenere queste correlazioni quando questi tipi di domande vengono chiesti dai medici.
Medgadget: Dove immagini questa tecnologia in un ambiente clinico? Come è sembrato finora e come cambierà?
Morency: la fase iniziale della tecnologia stava guardando lo screening per la depressione, il PTSD o l'ansia. Ma alla fine quando la tecnologia è diventata più matura, vediamo che il miglior caso d'uso è in trattamento. Stiamo lavorando a stretto contatto con McLean Hospital per studiare i pazienti in unità ospedaliere. Stiamo attualmente guardando una popolazione per la psicosi (che include schizofrenia e disturbo bipolare) per cercare i loro marcatori di comportamento nel tempo. Vorremmo meglio identificare il tipo di psicosi e dare risposte dal vivo ai medici.
Medgadget: Ci sono altri fattori in queste valutazioni biomarcatori visivi? Hai citato aspetti non verbali visivi, ma prendi anche in considerazione aspetti vocali o comportamentali?
Morency: Ora che stiamo ottenendo questi risultati promettenti da indicazioni non verbali, la nostra prossima linea di ricerca riguarda gli aspetti verbali e il contenuto di quello che stanno dicendo. Siamo interessati all'utilizzo lessicale e grammaticale del paziente e al modo in cui ciò cambia. Alcuni studi precedenti hanno già visto alcuni segni legati all'uso della lingua nella schizofrenia. Ma siamo anche interessati a questi perché i comportamenti non verbali sono meglio compresi quando sono contestualizzati con i suggerimenti verbali. I gesti e l'espressione facciale di una persona sono spesso meglio interpretati se  puoi vederli. Quindi questa analisi multi-modale è ciò che stiamo utilizzando per i nostri algoritmi.
Medgadget: Ha senso! E 'come provare a guardare la TV mentre è  muto - non capisci tanto quanto se il volume sia acceso.
Morency: esattamente! Quindi il nostro lavoro iniziale stava usando l'unico video. È abbastanza sorprendente che siamo stati in grado di ottenere tali indicatori comportamentali in condizione di mancanza di informazioni verbali. Ci aspettiamo indicatori molto più robusti mentre cominciamo ad integrare le indicazioni verbali.
Medgadget: Hai citato alcune condizioni mediche diverse. L'algoritmo stesso cambia tra le diverse condizioni?
Morency: Potresti vederlo come un problema a tre livelli. I primi due strati generalizzano abbastanza bene tra le popolazioni. Uno di essi è unimodale e quasi istantaneo, dove quantifica l'espressione e lo sguardo dall'immagine. Il secondo livello sta integrando tali informazioni nel tempo per il riconoscimento. Questi due sembrano funzionare bene per i nostri scopi poiché stiamo servendo per lo più adulti. Abbiamo fatto qualche lavoro con gli adolescenti, ma non con i bambini. Ci aspettiamo di dover adattare i primi due strati per quei contesti.
L'ultimo livello è la rilevazione di marcatori comportamentali specifici, e sono sicuramente specifici per ogni disturbo. Vediamo alcuni marcatori che generalizzano tra depressione e PTSD, ad esempio, ma molti di loro cambiano.
Un esempio di alcuni di questi marcatori comportamentali, pensa al sorridere nella depressione. Quando lo abbiamo studiato, ci aspettavamo che le persone che sono depresse sorridano meno spesso di altri. Si scopre che stavamo vedendo circa lo stesso numero di sorrisi, ma sorprendentemente la dinamica del sorriso era diversa. Quelli che erano depressi avevano un sorriso più corto con meno ampiezza. Sembra che a causa delle norme sociali, sorridono per essere gentili in un certo senso, ma non lo sanno tanto.
Un altro esempio veramente interessante proviene dall'esame di PTSD. Ci aspettavamo più espressioni facciali negative da coloro che sono stati colpiti. Non abbiamo visto alcuna distinzione così. Tuttavia, quando abbiamo separato uomini e donne, gli uomini con PTSD hanno mostrato un aumento delle espressioni facciali negative, mentre le donne hanno mostrato una diminuzione. Questo è stato davvero interessante perché è un'interazione specifica di genere che è probabilmente anche fondata sulle norme sociali - agli uomini in genere è permesso di mostrare le loro espressioni negative nella cultura americana, ma spesso le donne sono più sorridenti.
Medgadget: Quindi, dato che le norme sociali sono fattori importanti in questi suggerimenti comportamentali, come questi algoritmi si potranno adattare a culture diverse? È particolarmente calibrato alle norme occidentali?
Morency: ci aspettiamo che alcuni di questi fattori generalizzeranno, ma ci saranno sicuramente alcuni cambiamenti. Abbiamo alcuni indicatori che guardano il comportamento, ad esempio, i cambiamenti. C'è una riduzione del contatto visivo quando uno è depresso, ma in una cultura diversa in cui è rispettoso non avere contatti con gli occhi, ci aspettiamo che la tendenza sarà ancora osservabile, ma in misura minore. Questo è in realtà qualcosa che vogliamo testare e sono molto interessati a collaborare con le istituzioni internazionali per studiarlo.
Medgadget: Sembra che molto di quello che stai facendo stia cercando di ottenere le emozioni che stanno alla base delle interazioni umane. Hai anche citato il tuo interesse per le applicazioni relative all'autismo. Potresti toccare questo argomento?
Morency: un aspetto in cui siamo interessati è quello di aiutare a categorizzare e diagnosticare meglio i pazienti con autismo. Questo è il lavoro che stiamo facendo con il nostro collaboratore presso la Yale University. Ma siamo anche interessati ad aiutarli con interazioni generali e nel farli parlare in pubblico. Abbiamo un sistema con USC che è progettato per tutti, ma sarà particolarmente adatto per le persone nella parte inferiore dello spettro dell'autismo. L'obiettivo è quello di aiutarli a parlare pubblicamente e, alla fine, di presentarsi per interviste di lavoro. Così, anche se siamo interessati agli usi di questa tecnologia in un ambiente clinico, c'è spazio per il suo utilizzo come sistema di formazione che fornisce feedback dal vivo all'utente.
Medgadget: ho letto un tuo lavoro guardando i modelli di discorso in adolescenti aspiranti al suicidio. Di che si trattava?
Morency: lo studio dell'adolescenza suicida è stato un altro risultato sorprendente. Siamo stati molto interessati a studiare adolescenti che visitano la ER con tentativi o ideazioni suicide. L'obiettivo era inizialmente quello di distinguere tra quelli con o senza pensieri suicidi. È stato dimostrato in precedenza che il modo in cui viene utilizzato il linguaggio può servire da marker. Coloro che hanno pensieri suicidi usano i pronomi personali come "me" molto più spesso. Siamo stati in grado di distinguere tra loro in base al loro uso linguistico. Ma quello che volevamo davvero fare era quello di poter prevedere ripetuti tentativi di suicidio. Quindi li abbiamo chiamati poche settimane dopo per indagare e si scopre che la qualità del suono della voce era predittiva dei tentativi ripetuti. Era contraddittorio - abbiamo pensato che una voce tesa sarebbe stata la più predittiva. Una ipotesi è che hanno già analizzato i loro comportamenti, quindi la loro voce è più rilassata invece di essere in tensione.
Medgadget: Quindi, qual è la tua visione di questo campo di lavoro nel corso del prossimo decennio o due?
Morency: Stiamo vedendo una grande apertura dal campo medico per integrare la tecnologia. Nei prossimi 5 anni o meno, vedremo ulteriori studi di convalida. Stiamo vedendo così tanti risultati promettenti per i marcatori comportamentali e vedremo ulteriori studi che esaminino come questi risultati si generalizzano e si applicano in contesti diversi. Vedremo anche questa tecnologia che entra nel campo della telemedicina. Gli specialisti non sono sempre disponibili a livello locale per il paziente, per cui è in grado di interagire in modo remoto e di raccogliere marcatori comportamentali lungo un percorso, un aspetto che vedremo avere un enorme impatto sul campo sanitario nei prossimi anni.
Medgadget: ci sono applicazioni oltre il contesto medico per cui questa tecnologia potrebbe essere utilizzata?
Morency: è utile per almeno altre due applicazioni. Uno è quello di estrarre i video online. C'è un'enorme quantità di informazioni da parte delle persone che pubblicano video online per esprimere le loro opinioni su tutto! Quindi, riassumendo questi video e capendo cosa stanno parlando e le opinioni che stanno esprimendo - ciò che a volte viene chiamato analisi di opinione o analisi sentimentale - è un'applicazione molto intrigante del nostro sistema multimodale. Un'altra linea di ricerca che mi eccita personalmente è spingere avanti un'agenda per aiutare con l'apprendimento on-line. È un settore che ha enormi potenzialità, ma non vediamo tutti i risultati positivi. Riteniamo che questa tecnologia possa aiutare gli studenti a creare gruppi di lavoro più produttivi e remoti. Vogliamo portare alcuni dei vantaggi di interazioni faccia a faccia ad un ambiente collaborativo online.

Da:
https://www.medgadget.com/2017/06/computer-vision-applications-mental-health-interview-dr-lp-morency.html