1,264 research outputs found
Bedroht die künftige demographische Entwicklung die Vermögenswerte kapitalgedeckter Altersversorgungssysteme? Auswertung des Standes der internationalen Forschung
Die derzeitigen Altersvorsorgesysteme stehen durch die demographischen Entwicklungen in den meisten Industrieländern in absehbarer Zukunft vor gravierenden Problemen. Da die staatliche Alterssicherung keine adäquate Versorgung im Alter sicherstellt, muss zusätzlich eine Absicherung durch private bzw. betriebliche Vorsorge stattfinden. Es besteht eine stark verbreitete Sorge vieler Akteure, sowohl auf der Seite der Tarifpartner als auch in Unternehmen die betriebliche Altersversorgungssysteme betreiben, hinsichtlich der Renditeentwicklung vor dem Hintergrund der demographischen Entwicklung. Selbst in der interessierten Öffentlichkeit sind unter dem Schlagwort 'Asset-Meltdown' zum Teil dramatische Vorstellungen bezüglich eines Absinkens des Renditeniveaus in der Zeit starker Strukturveränderungen für die Periode nach 2010 vorhanden.Diese Studie untersucht den aktuellen Stand der Forschung zum sogenannten 'Demographie-Crash' anhand der Ergebnisse ausgewählter Forschungsergebnisse. Dabei werden zunächst die zukünftige demographische Entwicklung und die Auswirkungen auf gesellschaftliche, soziale und vor allem volkswirtschaftliche Faktoren dargestellt. In einem weiteren Schritt beschäftigt sich die Studie gezielt mit den verschiedenen Auswirkungen einer alternden Gesellschaft auf die Kapitalmärkte. Diese sind sehr komplex und hängen von verschiedensten Entwicklungen und Faktoren ab. Insbesondere wird die Gefahr eines 'Asset-Meltdown' beleuchtet. Unter diesem Begriff wird verstanden, dass die zahlenmäßig starke Baby-Boomer Generation ab 2010 in Rente geht und im Zuge dessen ihre Vermögensgegenstände zur Finanzierung ihres Lebensstandards an die zahlenmäßig schwächere jüngere Generation zu verkaufen versucht
The Surgical Infection Society revised guidelines on the management of intra-abdominal infection
Background: Previous evidence-based guidelines on the management of intra-abdominal infection (IAI) were published by the Surgical Infection Society (SIS) in 1992, 2002, and 2010. At the time the most recent guideline was released, the plan was to update the guideline every five years to ensure the timeliness and appropriateness of the recommendations.
Methods: Based on the previous guidelines, the task force outlined a number of topics related to the treatment of patients with IAI and then developed key questions on these various topics. All questions were approached using general and specific literature searches, focusing on articles and other information published since 2008. These publications and additional materials published before 2008 were reviewed by the task force as a whole or by individual subgroups as to relevance to individual questions. Recommendations were developed by a process of iterative consensus, with all task force members voting to accept or reject each recommendation. Grading was based on the GRADE (Grades of Recommendation Assessment, Development, and Evaluation) system; the quality of the evidence was graded as high, moderate, or weak, and the strength of the recommendation was graded as strong or weak. Review of the document was performed by members of the SIS who were not on the task force. After responses were made to all critiques, the document was approved as an official guideline of the SIS by the Executive Council.
Results: This guideline summarizes the current recommendations developed by the task force on the treatment of patients who have IAI. Evidence-based recommendations have been made regarding risk assessment in individual patients; source control; the timing, selection, and duration of antimicrobial therapy; and suggested approaches to patients who fail initial therapy. Additional recommendations related to the treatment of pediatric patients with IAI have been included.
Summary: The current recommendations of the SIS regarding the treatment of patients with IAI are provided in this guideline
Facile and sustainable functionalization of graphene layers with pyrrole compounds
A facile and sustainable functionalization of graphene layers was performed with pyrrole compounds
(PyC) prepared through the Paal–Knorr reaction of a primary amine with 2,5-hexanedione. A good
number of primary amines were used: hexanamine, dodecanamine, octadecanamine, 2-aminoacetic acid,
2-amino-1,3-propanediol, 3-(triethoxysilyl)propan-1-amine. The reactions were characterized by good yield,
up to 96 %, and indeed satisfactory atom efficiency, up to 80 %. The functionalization of graphene layers was
obtained by mixing PyC with a high surface area graphite and heating at a temperature range from 130 °C
to 150 °C for 3 h. The yield of functionalization reaction was larger than 60 % and also up to about 90 % for
the pyrrole compounds from dodecanamine and 2-amino-1,3-propanediol, respectively. The cycloaddition
reaction between the graphene layers and the pyrrole compound, oxidized in two position, is proposed as
working hypothesis to account for such efficient functionalization. Raman spectroscopy revealed that the
structure of the graphitic substrate remained substantially unaltered, after the reaction. Stable dispersions of
HSAG adducts with different PyC were prepared in solvents with different solubility parameters and HRTEM
analysis showed the presence of aggregates of only few layers of graphene. Qualitative results of dispersion
tests were used to calculate the Hansen sphere for the HSAG adduct with the pyrrole compound based on
dodecanamine so to provide a first estimate of its Hansen solubility parameters. This work paves the way for
the facile and sustainable modification of the solubility parameters of graphene layers and for the predictive
assessment of their compatibility with different environments
Assessing the validity of using serious game technology to analyze physician decision making
Background: Physician non-compliance with clinical practice guidelines remains a critical barrier to high quality care. Serious games (using gaming technology for serious purposes) have emerged as a method of studying physician decision making. However, little is known about their validity. Methods: We created a serious game and evaluated its construct validity. We used the decision context of trauma triage in the Emergency Department of non-trauma centers, given widely accepted guidelines that recommend the transfer of severely injured patients to trauma centers. We designed cases with the premise that the representativeness heuristic influences triage (i.e. physicians make transfer decisions based on archetypes of severely injured patients rather than guidelines). We randomized a convenience sample of emergency medicine physicians to a control or cognitive load arm, and compared performance (disposition decisions, number of orders entered, time spent per case). We hypothesized that cognitive load would increase the use of heuristics, increasing the transfer of representative cases and decreasing the transfer of non-representative cases. Findings: We recruited 209 physicians, of whom 168 (79%) began and 142 (68%) completed the task. Physicians transferred 31% of severely injured patients during the game, consistent with rates of transfer for severely injured patients in practice. They entered the same average number of orders in both arms (control (C): 10.9 [SD 4.8] vs. cognitive load (CL):10.7 [SD 5.6], p = 0.74), despite spending less time per case in the control arm (C: 9.7 [SD 7.1] vs. CL: 11.7 [SD 6.7] minutes, p<0.01). Physicians were equally likely to transfer representative cases in the two arms (C: 45% vs. CL: 34%, p = 0.20), but were more likely to transfer non-representative cases in the control arm (C: 38% vs. CL: 26%, p = 0.03). Conclusions: We found that physicians made decisions consistent with actual practice, that we could manipulate cognitive load, and that load increased the use of heuristics, as predicted by cognitive theory. © 2014 Mohan et al
Process Systems Engineering for early-stage process development: the case of sustainable bio-derived adipic acid
La consapevolezza degli impatti dell’uomo sull’ambiente e sulla salute pubblica ha spinto i governi occidentali a sostenere programmi di riduzione dell’inquinamento e del consumo di risorse. In questo contesto, sia le industrie che le istituzioni accademiche si impegnano a ricercare nuove soluzioni nella direzione di una nuova produzione “verde”. Inoltre, nuovi concetti vanno affermandosi nel linguaggio industriale, come la “bioraffineria”, intesa come contrapposizione rinnovabile alle mal viste raffinerie tradizionali. Le bioraffinerie dovrebbero produrre prodotti chimici e combustibili esattamente come le raffinerie esistenti, con la differenza che il carbonio non deriva più da petrolio fossile, ma dal ciclo naturale della CO2, fissata dall’atmosfera agli organismi viventi (piante, alghe, batteri).
Questa Tesi di Dottorato verte principalmente sullo studio di fattibilità di un’applicazione di bioraffineria drop-in per la produzione di acido adipico sostenibile da biomassa (tecnologia di 2° generazione), studio che consiste nella definizione dello schema di processo, nella valutazione delle performance economiche ed ambientali e nell’identificazione delle principali sfide che la ricerca applicata deve ancora affrontare per raggiungere l’industrializzazione. Alcuni di questi aspetti, finora mai studiati in dettaglio, sono stati trattati in questo lavoro applicando metodi computazionali della Process System Engineering, per risolvere problemi legati allo sviluppo di modelli predittivi, alla propagazione dell’incertezza e alla regressione di parametri da dati sperimentali.
Osservando in dettaglio la situazione attuale dell’industria dell’acido adipico, la sua produzione ricopre un fabbisogno di 3.7 milioni di tonnellate annue (con una crescita prevista del 4.1% annuo). Tuttavia, il processo produttivo tradizionale, basato su risorse petrolifere (benzene), solleva ancora grosse preoccupazioni per la sua pericolosità e gli elevati impatti ambientali, nonostante più di 70 anni di maturità tecnologica. Per questo motivo istituti di ricerca sia pubblici che privati hanno ricercato vie produttive alternative (bio e chimiche) per l’acido adipico negli ultimi vent’anni. Ciononostante, nessuno di questi processi ha ancora raggiunto l’industrializzazione, anche a causa del crollo del prezzo del petrolio nel 2014. Questo evento mostrò la principale debolezza delle bioraffinerie di tipo drop-in: la necessità di competere in termini di costo con tecnologie consolidate e altamente ottimizzate. Pertanto, è richiesto un nuovo approccio ingegneristico in fase di sviluppo di processi chimici per prodotti di grande scala bio-derivati ma a basso valore aggiunto. In particolare, il design concettuale di impianto diventa estremamente importante fin dai primi momenti dello sviluppo di processo, in modo da generare stime di costo e proiezioni fin da subito, così da definire una strategia vincente per la ricerca e sviluppo.
Dato il corpus esteso di contributi scientifici e brevetti accumulati sull’argomento dell’acido adipico “green”, la prima delle attività affrontate in questa Tesi è stata la raccolta e l’organizzazione sistematica delle conoscenze disponibili, per identificare le produzioni alternative e valutarne oggettivamente la sostenibilità con metriche green. Nello specifico, è stato ritenuto degno di ulteriori analisi un processo a doppio stadio (biologico e chimico) in virtù delle sue alte rese e della sua potenziale sostenibilità. Tale processo consiste in una prima fermentazione partendo da glucosio (da cellulosa) o da acido benzoico (da lignina) per produrre un intermedio insaturo, l’acido muconico, che poi è convertito per idrogenazione catalitica ad acido adipico.
Si è quindi applicata una metodologia CAPE (computer aided process engineering) per la sintesi e design del processo per acido adipico da acido muconico, in modo da valutare sistematicamente il più alto numero possibile di alternative di processo e generare il migliore flow-sheet allo stato dell’arte della ricerca. Questa metodologia è implementata in uno strumento del software ICAS, appreso dall’autore durante il suo soggiorno all’estero come PhD visiting student presso la DTU (Denmark Technical University, Copenhagen). Il software, in presenza di un set di materie prime, alternative di trasformazione (operazioni unitarie, ma anche condizioni di processo) e possibili prodotti, permette di costruire una sovrastruttura (o network di alternative) che poi è tradotto in un problema di ottimizzazione (MINLP) Mixed Integer Non Linear Programming, risolvibile in ambiente GAMS®. La soluzione è un layout di processo che massimizza la funzione obiettivo (potenziale economico di impianto) e ne fornisce anche i bilanci di materia ed energia.
La fattibilità industriale del processo è stata quindi valutata per scenari di mercato diversi, sono stati identificati i potenziali colli di bottiglia tecnologici e sono state calcolate nuove e più dettagliate metriche green (consumo d’acqua, d’energia, produzione di CO2 equivalente). La conformazione di processo si è quindi ottenuta evitando gli approcci semplificati come le stime tramite ordine di grandezza o applicando il principio dell’analogia, usati comunemente nelle prime fasi dello sviluppo di processo. Inoltre, la metodologia applicata consente maggiore flessibilità di un simulatore di processo, dal momento che ciascuna operazione unitaria è definita da pochi parametri tecnici, che permettono di avere stime di costo e prestazioni anche in presenza di dati preliminari ottenuti su piccola scala (laboratorio). Alla base di questo approccio semplificato c’è la rappresentazione Processing Step-Interval Network, secondo cui qualsiasi operazione unitaria può essere decomposta in unità basilari con funzioni di costo associate (mix, reazione, rimozione sottoprodotti, separazione prodotti e consumo utility), tutte modellate con una struttura modulare e universale. In caso di informazioni mancanti, si possono fare delle assunzioni che, se dimostrate determinanti per l’economia di processo, possono diventare l’oggetto delle future campagne di ricerca (definizione di obiettivi SMART).
Il problema di come le scarse informazioni nelle prime fasi di sviluppo di un processo possano influenzare l’affidabilità di una stima di costi è stato affrontato in dettaglio per un’operazione unitaria che dipende molto da studi sperimentali, non disponibili per la fermentazione dell’acido muconico: la filtrazione tangenziale a membrana per la chiarificazione del fermentato. L’utilizzo di dati di letteratura presi per sistemi “simili” a quello in studio può essere estremamente fuorviante, dal momento che il design e le condizioni di processo (pressione transmembrana, velocità del flusso tangenziale e rigenerazione della membrana) sono calibrate sulle proprietà di un particolare microorganismo, e potrebbero non applicarsi in altri casi. Un modello semi-empirico è stato quindi sviluppato sulla struttura dell’equazione di Darcy a resistenza additive, per rappresentare il comportamento dinamico dello sporcamento delle membrane ad opera dei microorganismi. Il modello, un sistema di equazioni algebriche e differenziali, è generico e flessibile, capace di rappresentare diversi tipi di microorganismi grazie ai suoi parametri adattativi: questi portano in sé l’incertezza derivante da errori sperimentali o errori derivanti dai limiti intrinseci del modello. Ulteriori incertezze sono introdotte utilizzando il modello in modo predittivo, cioè estendendo la validità dei parametri per sistemi simili, come effettuato per i microorganismi che producono l’acido muconico, le cui caratteristiche di filtrabilità non sono ancora state investigate. La propagazione dell’incertezza nel modello è stata quindi studiata applicando la Teoria della Possibilità e la Logica Fuzzy di Zadeh. Quest’analisi dell’incertezza ha permesso di identificare gli intervalli più verosimili delle prestazioni dei filtri, che, in associazione con una funzione di costo, hanno permesso di ottenere l’errore delle stime di costo e il rischio legato all’assenza di valori sperimentali diretti.
Il passaggio finale per la produzione di acido adipico, cioè l’idrogenazione catalitica dell’acido muconico, mancava anchesso dei dati minimi per effettuare stime attendibili sullo scale-up della reazione. In questo caso, è stata avviata una campagna sperimentale in collaborazione con il dipartimento di Chimica Industriale dell’Università degli Studi di Milano. Lo scopo è stato quello di identificare le condizioni di reazione ottimali (bassa pressione e temperatura, riciclabilità del catalizzatore) e di identificare il meccanismo di reazione, per sviluppare il primo modello cinetico della reazione. Diversi modelli con struttura LHHW sono stati testati per interpretare i valori sperimentali, considerando gli equilibri di adsorbimento e desorbimento delle specie coinvolte. È stato dimostrato infine un meccanismo a doppio stadio con dissociazione dell’idrogeno su metallo (Pt/C 5%). L’acido muconico (nella sua forma trans,trans) è idrogenato inizialmente ad acido esendioico (presente nelle sue due forme isomeriche cis e trans in equilibrio tra loro), che successivamente è convertito ad acido adipico. La regressione dei parametri del modello è stata effettuata con la libreria C++ BzzMath, caratterizzata da algoritmi per la minimizzazione robusta, necessari per superare le difficoltà computazionali legate all’uso di modelli che presentano forti collinearità dei parametri. I modelli sono stati pertanto riparametrizzati e progressivamente semplificati, ottenendo alla fine una buona rappresentazione dei dati sperimentali e fornendo i primi valori di riferimento per le energie di attivazione delle specie.
La struttura della Tesi è la seguente. Il capitolo 1 introduce il contesto generale di questo studio, evidenziando i problemi della produzione tradizionale dell’acido adipico e presentando le sfide principali da affrontare per stabilire produzioni “green” di prodotti chimici su grande scala. Il capitolo 2 fornisce una visione sulle alternative disponibili per un acido adipico green, dando una prima stima della loro potenziale sostenibilità e selezionando quindi la più promettente. Il capitolo 3 descrive l’applicazione della metodologia di sintesi e design di processo, riportando in dettaglio l’attività di selezione e modellazione delle operazioni unitarie, e l’analisi finale dei risultati dell’ottimizzazione della sovrastruttura, definendo una strategia per la ricerca. Il capitolo 4 descrive lo sviluppo di modello e l’analisi della propagazione dell’incertezza per le membrane di microfiltrazione tangenziale per la chiarificazione del fermentato. Il capitolo 5 descrive la campagna sperimentale di idrogenazione dell’acido muconico, riportando lo studio cinetico effettuato per ottenere il modello della reazione. Infine, le conclusioni riassumono i principali traguardi raggiunti in tre anni di ricerca e introducono i possibili sviluppi futuri che possono originare da questo Dottorato.The awareness of the negative impacts of human activity against environment and public health has pushed western governments to support long-term programs aimed at mitigating pollution and reducing resource consumption. In this spirit, both industry and academia are searching for new solutions towards a “green” manufacturing practice, and the concept of “biorefinery” is taking place, as a renewable counterpart of the ill-famed oil industry. Biorefineries are supposed to produce entire classes of chemicals and fuels just as a real refinery, with the great difference that the carbon source is no more fossil, but follows the natural cycle of CO2, which is captured from atmosphere and fixed into living organisms (plants, algae, bacteria).
This Doctoral Thesis deals with the feasibility evaluation of a drop-in biorefining application for the production of sustainable adipic acid from biomass (2nd generation technology), defining the full-scale process flowsheet, assessing the environmental and economic performances, and identifying the current challenges that R&D should address before industrialization. Some of these challenges have been tackled in this work applying several Process Systems Engineering computational tools, in particular dealing with problems of predictive models development, uncertainty propagation study and parameter regression from experimental data.
The current adipic acid production covers a market of 3.7 million tons per year (with a 4.1% of yearly growth) and, in spite of 70 years of technological maturity, the traditional benzene-based processes still raises serious safety and environmental concerns. For these reasons, both private and public research institutions have pursued alternative bio (and chemical) routes for adipic acid; however, none of these processes has reached industrialization yet, also due to the oil-price fall in 2014. This event evidenced the main weakness of drop-in biorefineries: the need to compete in costs with a well-established and optimized technology. A novel approach to process development is therefore required for the case of bulk bio-derived chemical with low added value. In particular, conceptual design acquires particular importance from the early stage of process development, to produce reliable cost estimates and projections, and to define a strategy for R&D.
Given the extensive and interdisciplinary literature accumulated dealing with green adipic acid, the first activity carried out for this Doctoral study was the collection and systematisation of the available knowledge, identifying the current alternative processing routes and assessing their actual sustainability with objective green metrics. In the specific, a two step biological-chemical process was considered worth of more detailed investigation for its good yields and sustainability potential. This process consists in a first fermentation to produce an unsaturated intermediate, muconic acid, starting from either glucose (from cellulose) or benzoic acid (from lignin); muconic acid is then catalytically hydrogenated to adipic acid.
A computer aided process synthesis-and-design methodology was therefore applied for the case study of adipic acid from muconic acid, to evaluate systematically the highest number of process alternatives to produce the best flowsheet concept at the state of the art. The method is implemented in a tool belonging to “ICAS software”, practiced during the author’s Ph.D. visiting period at DTU (Denmark Technical University, Copenhagen). This tool, given a number of alternative feedstocks, technologies (intended as unit operations, process conditions), and products, allows building a superstructure, which is translated into a Mixed Integer (Non) Linear Programming optimization problem solved in GAMS®. The solution is a processing route that maximizes the objective function (economic potential) providing also the material and energy balances. The plant feasibility was then evaluated for different market scenarios, the process bottlenecks were identified and more detailed green metrics were calculated (e.g. water consumption, energy consumption, CO2 equivalent). Thus, the process flowsheet concept was achieved avoiding the simplified approaches of order-of-magnitude estimates or the “analogy principle”. Also, the used methodology guarantees in general higher flexibility than a detailed process simulator, as each unit operation is defined by few user-defined parameters, that allow giving some cost/performance estimates even in presence of preliminary, lab-scale data. At the base of this approach there is the Processing-Step-Interval Network representation, according to which any unit operation can be systematically decomposed into basic tasks with cost associated function (mixing, reaction, waste removal, product separation and utilities consumption), modelled in a modular structure. In case of missing information, some assumptions can be made, which become the object of future research if proven determinant in the process economics (SMART objectives definition).
The problem of how the scarce information at early stage of research can affect the trustworthiness of a cost function was addressed in detail for a unit operation which relies much on experimental data, not available for muconic acid fermentation: cross flow microfiltration. In facts, using literature data in analogy with existing plants can be extremely deceptive, as the design and the operating conditions (transmembrane pressure, crossflow velocity, membrane regeneration) are calibrated on the specific properties of a particular microorganism. A grey-box model was developed on the structure of a Darcy additive resistance equation, to represent the dynamic behaviour of the progressive bacterial fouling of a filtration membrane. The model, a system of algebraic and differential equations, is general and flexible, able to represent different strains in virtue of its adaptive parameters. The parameters“carry” the uncertainties deriving from the experimental error or from the actual representation limits of the model. Further uncertainties are introduced when using the model in a predictive way, i.e. extending the parameters validity to “similar” systems, as performed for the case of the strains for muconic acid production, whose filterability properties have not been measured yet. The uncertainty propagation was therefore studied applying Possibility theory and the Fuzzy Logic of Zadeh. This uncertainty analysis allowed identifying the most likely range of filtration performances of an industrial membrane system, which, in association with a cost function, provided an indication of the error of cost estimates and the risk in the absence of specific R&D.
The final conversion step for the production of green adipic acid, i.e. the catalytic hydrogenation of muconic acid, lacked as well of the sufficient data to perform reliable estimates on the reaction scale up. In this case, an experimental campaign was started, in collaboration with the laboratories of Industrial Chemistry of Università degli Studi di Milano. The purpose was to identify the optimal reaction conditions (low pressure, low temperature, and catalyst recyclability) and identify the hydrogenation mechanism, to develop the first kinetic model for the system. Several models with LHHW structure were used to interpret the experimental values, considering the species adsorption-desorption equilibria of the involved species. A dual-step hydrogenation mechanism was demonstrated, with hydrogen dissociation on the metal (Pt/C 5%). Muconic acid (in its trans,trans form) is first hydrogenated to hexenedioic acid (present in its two cis and trans isomers, in equilibrium) which is then converted to adipic. The model parameter regression was performed with the C++ library BzzMath, characterized by robust minimization algorithms, to tackle the computational challenges related to the use of models with strong collinearity. The models were thus re-parametrized and progressively simplified, obtaining a good representation of the experimental data and providing the first reference values of the species activation energies.
The Thesis is structured as follows. Chapter 1 introduces the general framework of this study, highlights the issues of oil-based production of adipic acid, and presents the main challenges for the establishment of green bulk chemical productions. Chapter 2 provides an overview of the current alternatives for a sustainable adipic acid, giving the first estimates of their “green potential” and selecting the best route. Chapter 3 reports the application of the process synthesis and design methodology, with a detailed description of the unit operations selection and modelling, and with the analysis of the superstructure optimization results to define a research strategy. Chapter 4 describes the model development and the uncertainty propagation for the cross-flow microfiltration membranes in broth clarification applications. Chapter 5 describes the experimental campaign on muconic acid hydrogenation, and reports the kinetic study performed to achieve the reaction model. Finally, the Conclusions summarize the achievements of three year of investigation and introduce the possible future works.DIPARTIMENTO DI CHIMICA, MATERIALI E INGEGNERIA CHIMICA "GIULIO NATTA"30MORBIDELLI, MASSIMOFRASSOLDATI, ALESSI
Justice Reinvestment in Alaska: The Past, Present, and Future of SB 91
In the summer of 2016, Alaska Governor Bill Walker signed SB 91, a landmark criminal justice reform law that implements a “justice reinvestment” program. SB 91 aims to reduce Alaska’s prison population, cut corrections costs, and then reinvest savings back into the state to improve public safety and reduce recidivism. It is 193 sections long and is likely the most substantial change to Alaskan criminal law since statehood. It also comes at a time when similar legislation, spearheaded by the Justice Reinvestment Initiative, is proliferating through the country. This Note overviews Alaska’s corrections problems that prompted SB 91, discusses the law’s legislative history, highlights some of the most important changes the law makes, and introduces some of the issues that it may present going forward
Energia da biomasse. Studio del funzionamento di un impianto di biodigestione anaerobica mesofila per 1 MW elettrico da biometano
Studio dell'esercizio per un impianto di biodigestione anaerobica che produce biogas, dimensionato in modo da soddisfare una centrale termoelettrica da 1 MW. Analisi di funzionamento sul lungo periodo, a partire dall'effettiva messa in esercizio, monitorando la risposta al variare delle biomasse alimentate. L'obiettivo finale è di ottenere un prospetto di funzionamento strutturato con approccio ingegneristico, che sia di completamento e verifica alle informaznioni fornite dal costruttore. Sono ricavate indicazioni sulla resa della produzione di biogas, sono verificati i principali parametri di esercizio (tempi di ritenzione, ecc) e sono sviluppate formule matematiche utili al monitoraggio di importanti variabili (y metano, consumi). il primo capitolo contiene un utile riassunto delle trasformazioni biochimiche che intervengono nel processo di biodigestione anaerobica mesofilaope
System-level concentration of services for mechanically ventilated patients can mask substantial regional heterogeneity and disorganization
Informing policy via dynamic models: Cholera in Haiti
Public health decisions must be made about when and how to implement
interventions to control an infectious disease epidemic. These decisions should
be informed by data on the epidemic as well as current understanding about the
transmission dynamics. Such decisions can be posed as statistical questions
about scientifically motivated dynamic models. Thus, we encounter the
methodological task of building credible, data-informed decisions based on
stochastic, partially observed, nonlinear dynamic models. This necessitates
addressing the tradeoff between biological fidelity and model simplicity, and
the reality of misspecification for models at all levels of complexity. As a
case study, we consider the 2010-2019 cholera epidemic in Haiti. We study three
dynamic models developed by expert teams to advise on vaccination policies. We
assess previous methods used for fitting and evaluating these models, and we
develop data analysis strategies leading to improved statistical fit.
Specifically, we present approaches to diagnosis of model misspecification,
development of alternative models, and computational improvements in
optimization, in the context of likelihood-based inference on nonlinear dynamic
systems. Our workflow is reproducible and extendable, facilitating future
investigations of this disease system.Comment: To be submitted to the Annals of Applied Statistic
- …
