248 research outputs found
Expression, intracellular targeting and purification of HIV Nef variants in tobacco cells
Background
Plants may represent excellent alternatives to classical heterologous protein expression systems, especially for the production of biopharmaceuticals and vaccine components. Modern vaccines are becoming increasingly complex, with the incorporation of multiple antigens. Approaches towards developing an HIV vaccine appear to confirm this, with a combination of candidate antigens. Among these, HIV-Nef is considered a promising target for vaccine development because immune responses directed against this viral protein could help to control the initial steps of viral infection and to reduce viral loads and spreading. Two isoforms of Nef protein can be found in cells: a full-length N-terminal myristoylated form (p27, 27 kDa) and a truncated form (p25, 25 kDa). Here we report the expression and purification of HIV Nef from transgenic tobacco.
Results
We designed constructs to direct the expression of p25 and p27 Nef to either the cytosol or the secretory pathway. We tested these constructs by transient expression in tobacco protoplasts. Cytosolic Nef polypeptides are correctly synthesised and are stable. The same is not true for Nef polypeptides targeted to the secretory pathway by virtue of a signal peptide. We therefore generated transgenic plants expressing cytosolic, full length or truncated Nef. Expression levels were variable, but in some lines they averaged 0.7% of total soluble proteins. Hexahistidine-tagged Nef was easily purified from transgenic tissue in a one-step procedure.
Conclusion
We have shown that transient expression can help to rapidly determine the best cellular compartment for accumulation of a recombinant protein. We have successfully expressed HIV Nef polypeptides in the cytosol of transgenic tobacco plants. The proteins can easily be purified from transgenic tissue
Human adenocarcinoma cell line sensitivity to essential oil phytocomplexes from pistacia species: A multivariate approach
Principal component analysis (PCA) multivariate analysis was applied to study the cytotoxic activity of essential oils from various species of the Pistacia genus on human tumor cell lines. In particular, the cytotoxic activity of essential oils obtained from P. lentiscus, P. lentiscus var. chia (mastic gum), P. terebinthus, P. vera, and P. integerrima, was screened on three human adenocarcinoma cell lines: MCF-7 (breast), 2008 (ovarian), and LoVo (colon). The results indicate that all the Pistacia phytocomplexes, with the exception of mastic gum oil, induce cytotoxic effects on one or more of the three cell lines. PCA highlighted the presence of different cooperating clusters of bioactive molecules. Cluster variability among species, and even within the same species, could explain some of the differences seen among samples suggesting the presence of both common and species-specific mechanisms. Single molecules from one of the most significant clusters were tested, but only bornyl-acetate presented cytotoxic activity, although at much higher concentrations (IC50 = 138.5 \ub5g/mL) than those present in the essential oils, indicating that understanding of the full biological effect requires a holistic vision of the phytocomplexes with all its constituents
Mathematical modelling of wave–structure interactions with application to wave energy conversion
Energy conversion from ocean waves is one of the core themes of the energy global challenge research for the sustainability of the planet. New trends of wave energytechnologies attempt to explore new paths and intend to bring new answers to the problem of the competitiveness of the produced energy for conventional devices. This thesis provides the reader with mathematical models of wave-structure interactions applied to novel concepts of wave energy converters: a flexible piezoelectric wave energy harvester and a floater blanket wave energy converter. In chapter 1 I present an overview of the field of wave energy, a brief history and descriptions of working principles and technologies of wave energy conversion along with a number of classication schemes. Classical systems as well as new trends in the form of flexible or deformable converters and hybrid systems are presented. [Continues.]</div
Development of a prediction model for short-term atrial fibrillation recurrence after electrical cardioversion
LAUREA MAGISTRALELa fibrillazione atriale rappresenta un anormale ritmo cardiaco, che è caratterizzato da una successione di battiti rapidi e irregolari degli atri. Inizialmente può essere caratterizzata da eventi occasionali, con brevi periodi di battito anormale, ma col tempo questi accadimenti possono aumentare la frequenza e la loro durata. A causa di questa differenza nel numero e nelle caratteristiche degli episodi di fibrillazione, i pazienti che ne vengono colpiti possono essere classificati in tre differenti gruppi; la fibrillazione atriale viene clinicamente classificata come parossistica, quando gli eventi si succedono e si assestano in un tempo tendenzialmente inferiore a una settimana, persistente, quando gli episodi non si interrompono in maniera spontanea ma solamente a seguito di interventi esterni, permanente, quando gli interventi terapeutici per fermare questa anomalia cardiaca risultano inefficaci. Nonostante questa classificazione standard sia ampiamente riconosciuta, essa non coinvolge nel suo criterio di distinzione la variabilità dei cambiamenti elettrici e strutturali determinati dalla fibrillazione atriale nel tempo. Non risulta però difficile solo la classificazione della malattia a causa del meccanismo molto complesso su cui si evolve, ma è anche molto difficile da diagnosticare per la frequente assenza di sintomi nei pazienti colpiti.
Il numero di pazienti colpiti da questa malattia sta crescendo in tutti i paesi sviluppati e viene sempre più associata con morbilità e mortalità. Per questa ragione, la predizione dello sviluppo della fibrillazione atriale ha attirato grande attenzione dalla ricerca clinica, in modo da migliorare output diagnostici e terapeutici a livello della popolazione. In questo senso, molte variabili cliniche e demografiche sono state studiate in maniera approfondita, in modo da individuare possibili fattori di rischio dal valore assunto da questi ultimi.
Per la diagnosi e per lo studio della fibrillazione atriale sono proposte nello stato dell’arte sia tecniche invasive che non-invasive. La nostra attenzione, e quella del nostro studio, è indirizzata verso le seconde, che identificano gli elettrocardiogrammi come maggiore fonte di informazione per la diagnosi, lo studio di questa complessa malattia.
Gli elettrocardiogrammi cambiano significativamente in base al tipo di paziente con cui abbiamo a che fare (parossistico, persistente o permanente). Per i parossistici, infatti, essendo gli eventi molto rari, vengono usati dei monitor Holter per verificare questi accadimenti e, per la stessa ragione, il parametro più studiato per un controllo e una predizione di un riassestamento spontaneo della situazione fisiologica è rappresentato dalla P-wave. La lunghezza della P-wave, la sua frequenza e gli indici che la riguardano sono la maggiore fonte di alterazione della situazione elettrofisiologica e della modifica strutturale dell’atrio, associati con parametri clinici identificati come fattore di rischio. Questi pazienti, se ritenuto necessario, possono essere sottoposti a interventi terapeutici. Il primo di questi è rappresentato dalla cardioversione farmacologica mediante l’utilizzo di farmici antiaritmici (AAD) e, in certi casi, da cardioversione elettrica o ablazione. Pazienti che invece presentano una versione più grave della malattia, con eventi meno sporadici e lunghi, vengono identificati come persistenti o permanenti. Come sopramenzionato, per pazienti che presentano una versione permanente della malattia certi interventi esterni possono risultare inefficienti, discorso differente invece per i pazienti con fibrillazione atriale persistente. I pazienti persistenti presentano un elettrocardiogramma caratterizzato maggiormente da f-wave, onde caratteristiche e tipiche della fibrillazione che si sostituiscono alla classica P-wave fisiologica. Per lo studio di questi casi, oltre alla classica terapia farmacologica, possono essere intraprese due strade. La prima prevede di sottoporre questi pazienti a cardioversione elettrica, riportando quindi questi ultimi al classico ritmo sinusale con conseguente ricomparsa dell’onda P, in modo da studiare le caratteristiche e gli indici di quest’onda. Successivamente, a causa del fallimento delle precedenti terapie, questi pazienti possono essere sottoposti all’intervento di ablazione, che prevede l’eliminazione di una parte di tessuto con rischi connessi all’intervento chirurgico. In questo modo, il confronto degli indici dell’onda P prima e dopo l’intervento determina la possibilità di ricorrenza della malattia, in modo da effettuare una predizione del successo del trattamento nel medio-lungo termine. L’evidenza clinica e il successo di questi trattamenti ha percentuali di successo alte ma che non sono basate sulla certezza. Inoltre, i rischi connessi all’intervento di ablazione (soprattutto di quella chirurgica rispetto a quella con l’utilizzo di
transcatetere) portano la ricerca clinica a studiare in maniera più approfondita i parametri estratti dall’elettrocardiogramma (analisi non invasiva), in modo tale da utilizzare questi ultimi per la generazione di un modello predittivo di ripristino delle condizioni fisiologiche nel corto e nel medio-lungo termine. In questo punto viene identificato il secondo tipo di percorso a cui vengono sottoposti i pazienti che soffrono di fibrillazione atriale persistente. Prima di effettuare l’intervento di cardioversione elettrica, viene acquisito l’elettrocardiogramma di questi pazienti durante episodi di fibrillazione atriale (la durata dell’elettrocardiogramma è tendenzialmente variabile, ma solitamente di un minuto circa), in modo da intraprendere un processo di analisi del segnale in cui processi di filtraggio e enhancing generano il tracciato a cui si è interessati. Dal tracciato ottenuto vengono quindi estratti diversi tipi di parametri ECG, detti parametri complessi. Tramite questi parametri, l’obiettivo è quello di effettuare una predizione sul ritorno a una situazione stabile, che determinerebbe il successo dell’intervento di cardioversione e dell’assenza di episodi di fibrillazione atriale. Per eseguire l’atto di predizione, è necessario generare un modello di classificazione parametrizzato, che, a ogni nuova osservazione acquisita, determini una previsione sul successo che avrebbe la terapia sul paziente da cui provengono le suddette osservazioni (valore dei parametri). Il nostro progetto comincia la sua trattazione esattamente da questa fase. Siamo in possesso di segnali ECG, provenienti da pazienti colpiti da fibrillazione atriale persistente, registrati presso il Maastricht University Medical Centre (MUMIC). Gli elettrocardiogrammi di questi pazienti sono stati registrati con una tecnica di Body Surface Potential Mapping (BSPM), nella quale 184 elettrodi sono disposti sulla parte superiore del corpo, coprendo sia la zona anteriore che quella posteriore. Questi elettrodi sono tutti unipolari e ognuno di essi determina un segnale ECG di una determinata area del corpo. In questo modo, le analisi della propagazione delle onde caotiche di fibrillazione atriale vengono studiate in maniera più approfondita, con l’obiettivo di estrarre informazioni che la classica acquisizione a 12 lead non sarebbe in grado di fare.
Questo tipo di acquisizioni con conseguente studio di analisi sulla predizione della ricorrenza della fibrillazione atriale sono poco affrontate in letteratura, mentre modelli di predizione basati su parametri acquisiti dalla classica registrazione a 12 lead sono numerosi, ma differiscono molto in termini di risultati. Dopo aver verificato la corposa numerosità di studi sulla predizione della fibrillazione atriale, abbiamo riscontrato un’avvisabile mancanza di evidenza data dalla bassa sovrapposizione dei suddetti. Gli studi differiscono nell’importanza di certi parametri rispetto ad altri in termini di predizione, nel modo in cui questi si legano ai parametri clinici, che dovrebbero spiegare il diverso trend dei parametri predittori stessi a livello fisiologico e medico. Inoltre, in molti studi, i parametri vengono estratti direttamente e solamente dai lead della classica registrazione a 12 derivazioni che hanno avuto successo nella precedente letteratura.
Con il nostro progetto, invece, intendiamo effettuare un’analisi più ampia e generale, che non ci privi della possibilità di effettuare una investigazione approfondita data la numerosità di dati disponibili per ogni paziente (per ogni soggetto, infatti, abbiamo a disposizione 184 segnali, ognuno dei quali identifica e definisce l’elettrofisiologia della fibrillazione atriale in una determinata area anatomica). Tutti i calcoli, le computazioni e i cicli sono stati affrontati con MATLAB. Una volta chiarificato questo modo di procedere, il nostro primo obiettivo è quello di estrarre i parametri dai 184 segnali elettrocardiografici di ogni paziente. In questo, la nostra tesi arriva già a un bivio, che comporta il proseguimento di due strade parallele e caratterizzate da analisi indipendenti di dati fino alla determinazione del risultato finale. Il primo procedimento riguarda il calcolo dei cosiddetti parametri “multi”, i quali sono calcolati utilizzando tutti i 184 segnali provenienti dai lead, procurandoci in questo modo un tipo di parametro per tutti i 184 elettrocardiogrammi a disposizione. Questi parametri danno un’informazione cumulativa della situazione della fibrillazione atriale sulla superficie corporea. Si tratta di un mezzo potente, ma pericoloso, in quanto risultati fuorvianti potrebbero contribuire alla determinazione del risultato finale. Parallelamente procederemo al calcolo dei cosiddetti parametri “single”, che prevedono la computazione di tutti i parametri che abbiamo intenzione di estrarre per ogni segnale ricavato da ogni lead. In questo modo avremo a disposizione per ogni paziente una matrice dove ogni parametro presenterà tante osservazioni quanti sono i lead a nostra disposizione. A questo punto avremo un numero molto consistente di predittori per questa analisi (più di 1200).
Una volta estratti i parametri per entrambi i percorsi presentati e soprattutto dato il cospicuo numero di quelli presenti nella seconda analisi, procederemo alla feature selection (selezione dei parametri) di entrambi, che rappresenta il primo vero step di analisi di dati della nostra tesi. Il nostro progetto entra quindi nel vivo della sua seconda grande parte, dove tecniche di machine learning e data mining sono protagoniste. Prima di procedere alla descrizione del procedimento che porterà allo sviluppo del modello finale per la classificazione di osservazioni future, è importante menzionare la suddivisione dei dati a nostra disposizione. Il nostro dataset, caratterizzato da 63 pazienti, viene diviso in un training e in un test set, costituiti rispettivamente da 40 e 23 soggetti. Di questi soggetti siamo in possesso dell’outcome (positivo o negativo) riguardante il successo della cardioversione, che nel caso del training set verrà usato per la classificazione supervisionata, mentre per il test set per la valutazione dell’accuratezza dell’algoritmo di classificazione. La ridotta grandezza del nostro sample ci ha obbligati a omettere la presenza di un set di validazione, che comporterà l’utilizzo di tecniche di cross-validazione per la valutazione della generalizzazione dei modelli generati sul training set.
Il processo di feature selection si avvia con un primo step nel quale effettuiamo una scrematura di quelli che sono i predittori più performanti a livello individuale, tramite un test statistico di separazione e una primitiva valutazione sulla classificazione. I parametri che passeranno la selezione saranno quelli che presenteranno un p-value di significatività nella divisione delle popolazioni del training set inferiore a 0.1 e un AUC cross-validato generato da una semplice regressione lineare logistica di ogni parametro di almeno 0.7. Nella prima scrematura, viene fissato inoltre un altro criterio da soddisfare per il passaggio alla fase successiva. Nel procedimento sopramenzionato di cross-validazione, calcoliamo una media di accuratezza di ogni validation set, ognuna generata dalla performance del modello creato da ogni training set dei diversi fold. In caso questa accuratezza media sia maggiore o uguale al 50% e se soddisfatti i precedenti due criteri, il parametro proseguirà alla vera e propria feature selection del progetto. Questa prima selezione ha determinato la non significatività di tutti i parametri multi, interrompendo in questo modo le analisi su questi ultimi. Per quanto riguarda invece i parametri single, la selezione ci ha condotti a un primo subset di 30 parametri significativi che procederanno con le analisi successive.
Questa preselezione è fondamentale, soprattutto data la enorme quantità di parametri per il percorso dei single lead. Un semplice processo di feature selection potrebbe non rivelarsi infatti sufficiente a ridurre il numero di parametri a una quantità inferiore rispetto a quella del numero di soggetti, situazione che avrebbe portato un problema di dimensionalità.
A questo punto la tesi si dirama in ulteriori 4 percorsi, che inizialmente presentano come principale differenza il metodo di selezione dei parametri scelto, ma che si diversificheranno anche nel migliore metodo di classificazione finale.
Il primo percorso presentato tratta un algoritmo che, una volta ricevuti in ingresso i dati, opera sia una feature selection che una classificazione. Questo algoritmo è una regressione logistica multivariata nella quale, all’interno della figura di merito, viene aggiunto un termine di regolarizzazione che prevede la penalizzazione dei coefficienti regressivi assegnati ad ogni parametro. Questo termine di regolarizzazione può diversificarsi in base a come viene espresso, dando vita rispettivamente a 3 metodi differenti: lasso/elastic net/Ridge regression. I 3 metodi, in un’analisi generale, si diversificano principalmente per la parte dell’algoritmo che privilegiano, o la feature selection, o il fitting di un modello che minimizzi al massimo l’errore sul training. La scelta del migliore per il nostro tipo di dati viene effettuata tramite una procedura, da noi implementata, che prevede la generazione di 100 modelli in cui un random training e un random test set vengono selezionati ad ogni iterazione dal training set originario di 40 pazienti. Ogni modello viene fittato e testato con un diverso valore del termine di penalizzazione, variato in un range di 10 valori, che corrisponde esattamente a utilizzare o lasso, o elastic net, o Ridge regression, o metodi intermedi tra questi. La media delle accuratezze di ogni modello fittato sui sub-training set e utilizzato per classificare i sub-test set determina 10 accuratezze medie per ogni valore di penalizzazione scelto (parametro alfa che varia da 0.1 a 1). Il metodo che presenta l’accuratezza migliore verrà fittato sul training e utilizzato per la classificazione del test set originale di 23 pazienti. In base al metodo scelto verrà anche determinata una specifica feature selection, opportunamente commentata e analizzata. Prima di procedere all’attuazione dell’algoritmo vero e proprio, abbiamo operato una sostituzione dei parametri mancanti con una media del valore dei parametri ottenuti dai lead circostanti a quello considerato. Questa operazione è stata necessaria solamente per il primo percorso in quanto, comprendendo sia selezione di predittori che classificazione, il dataset in input all’algoritmo è costituito da 30 regressori e ogni qualvolta viene riscontrata un’osservazione mancante per un determinato parametro, l’algoritmo ignora l’intero paziente, riducendo così il numero di osservazioni su cui viene valutato e implementato il modello. Questa scelta drastica è stata operata solamente per il primo percorso, in quanto per gli altri, avendo differenziato l’operazione di feature selection dalla classificazione, i parametri in input alla classificazione sono apprezzabilmente inferiori rispetto a quelli presenti nel set preselezionato, rendendo così meno inficiante il mancato utilizzo di certe osservazioni nell’implementazione del modello.
Il secondo metodo di feature selection si basa invece sulla selezione di parametri tramite un algoritmo di classificazione, che non verrà però utilizzato per effettuare il fitting del modello. L’algoritmo in questione è la Neighborhood Component Analysis, che assegna ad ogni parametro un peso specifico in base all’importanza del parametro stesso per la classificazione. Fisseremo successivamente una threshold del valore di peso minimo per determinare l’inclusione dei parametri nel set ottimo, mentre i predittori con peso inferiore alla threshold verranno esclusi dalla selezione.
Nel set preselezionato di 30 feature, viene riscontrata la presenza predominante di un parametro rispetto ad altri. Diventa quindi di fondamentale importanza valutare la correlazione possibile esistente fra i predittori provenienti dallo stesso tipo di parametro (il parametro è lo stesso, cambia il lead da cui proviene); questa dipendenza potrebbe infatti essere un benefit per il modello finale, oppure portare ridondanza che potrebbe inficiare la performance predittiva. Per questa ragione, gli ultimi due percorsi implicano una feature selection che valuti in maniera rispettivamente implicita o esplicita la dipendenza dei predittori l’uno dall’altro. Il primo utilizza la Sequential Forward Floating Selection (SFFS), che non è altro che un metodo stepwise dove una feature alla volta viene aggiunta al set ottimo fino a quando un certo criterio di stop non viene soddisfatto. Le feature vengono aggiunte in base al valore dell’AUC cross-validato della regressione logistica multivariata sul training set e il parametro che aggiunto al set ottimo temporaneo migliora maggiormente l’AUC totale viene incluso e si procede con l’iterazione successiva. Questo metodo implicitamente coinvolge la natura della dipendenza esistente tra i parametri del modello, in quanto se identificata come benefit, anche se due parametri sono correlati tra di loro, nel caso in cui la classificazione basata su entrambi migliori il potere predittivo presentato dalla performance dei singoli, la ridondanza viene superata ed è corretto comprendere entrambi nel set ottimo.
L’ultimo percorso è invece implementato coinvolgendo e basandosi esplicitamente sulla correlazione dei predittori e sulla correlazione di questi con la variabile binaria di output. Una volta elencati i parametri in ordine di perfomance predittiva (AUC cross-validato), questi vengono aggiunti uno alla volta al set ottimo solo in caso di miglioramento di una figura di merito (individuata in letteratura) che valuta la dipendenza media del parametro con quelli già inseriti nel set ottimo, il numero di parametri e la dipendenza media dei parametri con l’outcome. Il processo, come quello precedente, procede fino a un criterio di stop, identificato nella mancanza di miglioramento della figura di merito all’aggiunta di un certo predittore.
Una volta terminata la feature selection di ogni percorso, tralasciando il primo che comprende feature selection e classificazione nel medesimo algoritmo, implementiamo parallelamente lo stesso procedimento per la scelta del miglior metodo di classificazione di ogni protocollo. Per fare questo, ci avvaliamo del CLASSIFICATION TOOL di MATLAB, che fornisce diversi algoritmi di classificazione calcolando un’accuratezza media di una cross-validazione a 5 fold per ogni metodo. Ogni volta che un metodo presenta una accuracy media maggiore del 60%, una simulazione di 100 iterazioni Monte Carlo viene implementata per il suddetto algoritmo sul training set. All’interno di ogni iterazione si procede alla cross-validazione dell’algoritmo, con il conseguente calcolo dell’accuratezza media. Le 100 accuracy in questo modo generate vengono mediate e il metodo con l’accuratezza media migliore viene fittato sul training set e testato sul test set generando il valore finale di accuracy che rappresenta un’indice di performance di ognuno dei 4 modelli sulle osservazioni future. Le performance migliori sono date dai primi tre percorsi, con accuratezza sul test set maggiori o uguali al 70%, mentre la peggiore è data dal quarto percorso che presenta un’accuratezza del 65%. Le accuratezze sul test set, ma soprattuto quelle sul training, indice della generalizzabilità del modello, ci danno grandi indicazioni sulle migliori composizioni di parametri tra i 4 percorsi, su cui possiamo ragionare e da cui possiamo trarre conclusioni importanti sul modo in cui si relazionano tra loro.
Raggiunto il principale obiettivo della nostra tesi, abbiamo proceduto con analisi di supporto che coinvolgono studi di dati clinici e ragionamenti sulla posizione dei lead significativi rispetto alla configurazione classica a 12 elettrodi.
Siamo entrati in possesso di 35 tipi di dati clinici per i pazienti a disposizione. Una volta implementato lo stesso procedimento visto per la preselezione dei parametri elettrocardiografici, i dati clinici che hanno avuto successo in questo step verranno affiancati ai parametri estratti dagli ECG di ogni percorso, per valutare un miglioramento del potere predittivo. Inoltre, abbiamo intrapreso un’analisi a parte che prevede il fitting e la classificazione basati solamente sui dati clinici, in modo di avere un indice di performance di questi considerati da soli. I risultati sono stati deludenti in quanto per quello che concerne il primo processo, i dati clinici insieme agli ECG non migliorano il modello precedentemente generato, mentre il modello creato con i soli dati clinici produce risultati poco promettenti. Il motivo di questi
Cámara Barroso, M. C., La armonización del impuesto sobre hidrocarburos en la Unión Europea, Dykinson, Madrid, 2014, 318 págs
Pharmacogenomic characterization in bipolar spectrum disorders
The holistic approach of personalized medicine, merging clinical and molecular characteristics to tailor the diagnostic and therapeutic path to each individual, is steadily spreading in clinical practice. Psychiatric disorders represent one of the most difficult diagnostic challenges, given their frequent mixed nature and intrinsic variability, as in bipolar disorders and depression. Patients misdiagnosed as depressed are often initially prescribed serotonergic antidepressants, a treatment that can exacerbate a previously unrecognized bipolar condition. Thanks to the use of the patient\u2019s genomic profile, it is possible to recognize such risk and at the same time characterize specific genetic assets specifically associated with bipolar spectrum disorder, as well as with the individual response to the various therapeutic options. This provides the basis for molecular diagnosis and the definition of pharmacogenomic profiles, thus guiding therapeutic choices and allowing a safer and more effective use of psychotropic drugs. Here, we report the pharmacogenomics state of the art in bipolar disorders and suggest an algorithm for therapeutic regimen choice
Essential oil phytocomplex activity, a review with a focus on multivariate analysis for a network pharmacology-informed phytogenomic approach
Thanks to omic disciplines and a systems biology approach, the study of essential oils and phytocomplexes has been lately rolling on a faster track. While metabolomic fingerprinting can provide an effective strategy to characterize essential oil contents, network pharmacology is revealing itself as an adequate, holistic platform to study the collective effects of herbal products and their multi-component and multi-target mediated mechanisms. Multivariate analysis can be applied to analyze the effects of essential oils, possibly overcoming the reductionist limits of bioactivity-guided fractionation and purification of single components. Thanks to the fast evolution of bioinformatics and database availability, disease-target networks relevant to a growing number of phytocomplexes are being developed. With the same potential actionability of pharmacogenomic data, phytogenomics could be performed based on relevant disease-target networks to inform and personalize phytocomplex therapeutic application
Target-dependence of sensory neurons: An ultrastructural comparison of axotomised dorsal root ganglion neurons with allowed or denied reinnervation of peripheral targets
Evidence is emerging for a role of rough endoplasmic reticulum (RER) in the form of stress granules, the unfolded protein response and protein bodies in the response of neurons to injury and in neurodegenerative diseases. Here, we have studied the role of the peripheral target in regulating the RER and polyribosomes of Nissl bodies in axotomised adult cat dorsal root ganglion (DRG) neurons where axonal regeneration and peripheral target reinnervation was either allowed or denied. Retrograde labelling with horseradish peroxidise was used as an independent marker to enable selection of only those DRG neuronal cell bodies with axons in the injured intercostal nerves. Indications of polyribosomal dispersal were seen by 6 h following axotomy, and by 24 h the normal orderly arrangement of lamellae of RER in Nissl bodies had become disorganised. These ultrastructural changes preceded light microscopical chromatolysis by 1–3 d. The retrograde response was maximal 8–32 d after axotomy. Clusters of debris-laden satellite cells/macrophages were present at this time but no ultrastructural evidence of neuronal apoptosis or necrosis was seen and there were no differences in the initial retrograde response according to the type of injury. By 64 d following axotomy with reinnervation, approximately half the labelled DRG neurons showed restoration of the orderly arrangement of RER and polyribosomes in their Nissl bodies. This was not seen after axotomy with reinnervation denied. We propose that the target-dependent changes in Nissl body ultrastructure described here are part of a continuum that can modify neuronal protein synthesis directed towards growth, maintenance or death of the neuron. This represents a possible structural basis for mediating the varied effects of neurotrophic interactions.I. P. Johnson and T. A. Sear
Green alternatives for the control of fungal diseases in strawberry: in-field optimization of the use of elicitors, botanical extracts and essential oils
Finding safe and reliable alternatives to fungicides is currently one of the biggest challenges in agriculture. In this regard, this experiment investigated the effectiveness of different elicitors, botanical extracts and essential oils to control grey mold (Botrytis cinerea) and powdery mildew (Podosphaera aphanis) on strawberry plants. This trial was conducted in field conditions under a plastic tunnel with strawberry plants 'Elsanta'. A first group of strawberry plants was treated before flowering with elicitors [acibenzolar-S-Methyl-(BTH), chitosan], botanical extracts (seaweed extract, alfalfa hydrolysate) and essential oils (thyme and juniper), and grey mold incidence on flowers was evaluated (Experiment 1). Furthermore, a second group of plants was treated before (Experiment 2) and after (Experiment 3) controlled inoculation with P. aphanis. The results indicated that the incidence of flower infected by B. cinerea was reduced by approximately 50% with thyme and juniper essential oils' applications compared to the untreated control, with no significant difference observed compared to the commercial fungicide penconazole (positive control). As a consequence, the final yield of essential-oil-treated plants was +27% higher than that of non-treated plants. No significant differences emerged for other tested products against grey mold. However, gene expression analysis showed an up-regulation (>2 divided by 5 folds as compared to control 4 days after application) of FaEDS1, FaLOX and PR gene expression (FaPR1, FaPR5, FaPR10) in leaves treated with BTH. The other natural substances tested also induced defense-related genes, albeit at a lower level than BTH. In Experiment 2, all treatments applied prior to inoculation significantly reduced the incidence and severity of powdery mildew as compared to control. At 28 days after inoculation, chitosan and thyme essential oil applications performed similarly to their positive controls (BTH and penconazole, respectively), showing a significant reduction in disease incidence (by -84 and -92%) as compared to control. Post-inoculum application of essential oils (Experiment 3) showed an efficacy similar to that of penconazole against powdery mildew. These results indicated that the tested substances could be used as alternatives to fungicides for the control of grey mold and powdery mildew in strawberry, therefore representing a valuable tool for the control of these fungal diseases under the framework of sustainable agriculture
- …
