875 research outputs found
Statistical methods for the analysis of rotation measure grids in large scale structures in the SKA era
To better understand the origin and properties of cosmological magnetic
fields, a detailed knowledge of magnetic fields in the large-scale structure of
the Universe (galaxy clusters, filaments) is crucial. We propose a new
statistical approach to study magnetic fields on large scales with the rotation
measure grid data that will be obtained with the new generation of radio
interferometers.Comment: 9 pages; to appear as part of 'Cosmic Magnetism' in Proceedings
'Advancing Astrophysics with the SKA (AASKA14)', PoS(AASKA14)11
Isolated Minkowski vacua, and stability analysis for an extended brane in the rugby ball
We study a recently proposed model, where a codimension one brane is wrapped
around the axis of symmetry of an internal two dimensional space compactified
by a flux. This construction is free from the problems which plague delta-like,
codimension two branes, where only tension can be present. In contrast,
arbitrary fields can be localized on this extended brane, and their
gravitational interaction is standard 4d gravity at large distance. In the
first part of this note, we study the de Sitter (dS) vacua of the model. The
landscape of these vacua is characterized by discrete points labeled by two
integer numbers, related to the flux responsible for the compactification and
to the current of a brane field. A Minkowski external space emerges only for a
special ratio between these two integers, and it is therefore (topologically)
isolated from the nearby dS solutions. In the second part, we show that the
Minkowski vacua are stable under the most generic axially-symmetric
perturbations (we argue that this is sufficient to ensure the overall
stability).Comment: 12 pages, 4 .eps figure
Switching criteria analysis for a condenser moving boundary model
The switching moving boundary (SMB) scheme is widely used for numerical simulation of heat exchangers, especially in vapour compression refrigeration system. The method divides the heat exchanger into up to three zones (superheated vapour, two-phase fluid and subcooled liquid), depending on the operating conditions and treats each as a lumped-parameter system. During transients the number of zones may vary, and suitable switching criteria and related threshold values must be given, for this change to occur. Also, variables for the zones momentarily phased out need to be tracked, to allow smooth operation of the model. In this work, a switching moving boundary model of a brazed plate condenser in counter-flow arrangement is studied to obtain some useful guidelines for the selection of the optimal switching thresholds. It is shown that these values influence both the accuracy and the numerical robustness of the model; moreover an appropriate selection of these parameters may allow the usage of a fixed-step solver, which is more suitable for real-time simulations
Numerical verification of the condenser finite volume model
Numerical modelling of vapour compression systems is very useful for performance optimization through the implementation of suitable model-based control applications; in this context the heat exchangers are the most challenging component to devise, due to phase transition and ensuing discontinuities of the physical properties, and one tool which has proven itself suitable for the task is the finite volume method. A numerical verification of a finite volume model of a brazed plate condenser in counterflow arrangement is carried out, employing a fixed timestep solver; some useful guidelines are suggested to properly choose the solver order, the integration step size and the number of grid elements, balancing the accuracy of the predictions with computational time and model stability and flexibility during the transients, with the ultimate goal to provide a model suited for real-time simulations and control-oriented applications
Numerical model of an industrial refrigeration system for condensation temperature optimisation
Refrigeration plants in the food industry have a key role, yet are very energy-intensive, which poses a serious problem given the current steep rise of energy prices. In this framework, energy consumption minimisation represents a paramount goal for plant managers, yet most are loathe to test new control strategies in real-life plants, lest normal operation be disrupted and food be spoiled as a consequence. In this view, numerical models able to demonstrate the reduction in energy consumption which can be achieved with suitable conduction strategies, especially in the case when evaporative condensers are employed, appear the ideal tool to provide the manager with an estimation of the potential savings and spur them into adopting such strategies. In this work one such model is developed for the primary loop of the refrigeration plant of a warehouse for food storage located in northern Italy. The choice of the model type is discussed at length, as are modelling issues related to all main components of the loop. The model has been validated with operational data from the real-life plant and employed to determine the optimal condensation pressure corresponding to the minimum total energy consumption according to ambient conditions. The method and model can be applied to other, similar plants in order to minimise their energy consumption
Porta Palatina historic survey drawings: digital replicas and comparison with updated digital acquisition
The proposed research aims at a comparison of the main historical surveys conducted on the Porta Palatina by different authors, with the data of a current digital survey. Through a work of redrawing and superimposition of information deducted from historical drawings, the analysis will highlight the consistency, discrepancies and inconsistencies of these drawings compared to the current state of the artefact. Therefore, the instrumental survey, necessary for the subsequent stages of graphical analysis, was carried out using photogrammetric techniques and Metashape software.
The drawings taken into consideration for this work are those by Sangallo (1494–1497 ca.), by Palladio (1566 ca.), by Promis (1869) and by D'Andrade (1883): they constitute a very interesting documentary heritage, although heterogeneous, in which qualitative drawings (Sangallo), scaled drawings (D'Andrade), measured drawings (in vicentine’s feet for Palladio, in meters for Promis) alternate
Efficient and robust inference of models with occasionally binding constraints
This paper proposes a piecewise-linear Kalman lter (PKF) to estimate DSGE models with occasionally binding constraints. The method expands the set of models suitable for nonlinear estimation. It straightforwardly handles missing data, non-singularity (more shocks than observed time series), and large-scale models. We provide several applications to highlight its efficiency and robustness compared to existing methods. Our toolkit integrates the PKF into Dynare, the most popular software in DSGE modeling.JRC.B.1 - Economic and Financial Resilienc
Genetically engineered minipigs model the major clinical features of human neurofibromatosis type 1.
Neurofibromatosis Type 1 (NF1) is a genetic disease caused by mutations in Neurofibromin 1 (NF1). NF1 patients present with a variety of clinical manifestations and are predisposed to cancer development. Many NF1 animal models have been developed, yet none display the spectrum of disease seen in patients and the translational impact of these models has been limited. We describe a minipig model that exhibits clinical hallmarks of NF1, including café au lait macules, neurofibromas, and optic pathway glioma. Spontaneous loss of heterozygosity is observed in this model, a phenomenon also described in NF1 patients. Oral administration of a mitogen-activated protein kinase/extracellular signal-regulated kinase inhibitor suppresses Ras signaling. To our knowledge, this model provides an unprecedented opportunity to study the complex biology and natural history of NF1 and could prove indispensable for development of imaging methods, biomarkers, and evaluation of safety and efficacy of NF1-targeted therapies
The 1.6 micron near infrared nuclei of 3C radio galaxies: Jets, thermal emission or scattered light?
Using HST NICMOS 2 observations we have measured 1.6-micron near infrared
nuclear luminosities of 100 3CR radio galaxies with z<0.3, by modeling and
subtracting the extended emission from the host galaxy. We performed a
multi-wavelength statistical analysis (including optical and radio data) of the
properties of the nuclei following classification of the objects into FRI and
FRII, and LIG (low-ionization galaxies), HIG (high-ionization galaxies) and BLO
(broad-lined objects) using the radio morphology and optical spectra,
respectively. The correlations among near infrared, optical, and radio nuclear
luminosity support the idea that the near infrared nuclear emission of FRIs has
a non-thermal origin. Despite the difference in radio morphology, the
multi-wavelength properties of FRII LIG nuclei are statistically
indistinguishable from those of FRIs, an indication of a common structure of
the central engine. All BLOs show an unresolved near infrared nucleus and a
large near infrared excess with respect to FRII LIGs and FRIs of equal radio
core luminosity. This requires the presence of an additional (and dominant)
component other than the non-thermal light. Considering the shape of their
spectral energy distribution, we ascribe the origin of their near infrared
light to hot circumnuclear dust. A near infrared excess is also found in HIGs,
but their nuclei are substantially fainter than those of BLO. This result
indicates that substantial obscuration along the line-of-sight to the nuclei is
still present at 1.6 micron. Nonetheless, HIGs nuclei cannot simply be
explained in terms of dust obscuration: a significant contribution from light
reflected in a circumnuclear scattering region is needed to account for their
multiwavelength properties.Comment: 20 pages, 16 figures. Accepted for publication on Ap
COME SCEGLIERE TRA DIFFERENTI MERCATI, SETTORI E TITOLI
2006/2007Il presente lavoro, inizia col rintracciare un percorso evolutivo per i metodi finanziari di valutazione delle aziende e termina col mostrare un moderno processo decisionale d’investimento, coerente e razionale con i diversi approcci a disposizione di un analista finanziario. Nonostante siano passati ormai diversi decenni dall’elaborazione delle teorie classiche della moderna finanza d’impresa, il dibattito scientifico dell’ultimo trentennio non ha prodotto modifiche sostanziali al costrutto teorico elaborato dai padri della finanza.
Si studieranno quindi da vicino, le diverse soluzioni proposte dai più famosi esperti e se ne mostreranno le principali applicazioni pratiche come tutt’oggi vengono comunemente implementate nella valutazione dei mercati, dei settori o dei titoli azionari.
Si offriranno dunque spunti di riflessione e si analizzeranno variabili sperimentali su cui la teoria economica dovrebbe soffermarsi per poter elaborare modelli cognitivi più credibili. Per evidenziare i diversi aspetti che coinvolgono le valutazioni e procedere nella maniera più completa, fornendo un quadro sufficientemente verosimile delle realtà empiriche legate al comportamento dei mercati, ci si servirà del concorso di diverse materie di studio.
In particolare verranno seguiti dei percorsi paralleli, attraverso indagini di natura sociale, psicologica, storica, politica, oltre che analiticofinanziaria ed econometrica, per giungere ad una aggiornata diagnosi dei mercati finanziari e poter individuare, considerando anche i nuovi connotati tecnologici dell’economia, le prospettive legate alla borsa per i prossimi anni.
L’impiego di strumenti matematici, statistici ed econometrici, infatti, per quanto sofisticato, non riesce da solo a spiegare il complesso eterogeneo di cause inerenti le quotazioni registrate dai titoli azionari nei mercati finanziari, né possono da soli documentare i mutamenti culturali, demografici e sociali che pure sembrano aver giocato un ruolo di primo piano negli sviluppi recenti del mondo della finanza. Diventano quindi fondametali anche gli studi delle “Psicologia della finanzia”, per interpretare comportamenti apparentemente irrazionali che si possono riscontrare nei mercati, soprattutto compiendone letture senza davanti, ampi orizzonti temporali d’investimento ed osservazione.
Per capire cosa muove le valutazioni del mercato attuale e in che misura esso rispecchi la teoria dell’efficienza di cui parlano i testi di finanza, si deve procedere come fa uno scienziato che studia un fenomeno empirico. Innanzi tutto si devono analizzare lunghe serie di dati, in grado di definire i limiti all’interno dei quali questo fenomeno si manifesta, ed i comportamenti tipici che questo esibisce, di modo da poterli racchiudere in un modello. In secondo luogo, si devono individuare le componenti più anomale e le deviazioni dal modello. La storia economica è in grado di fornire un ritratto molto utile alla comprensione dei mercati, anche se bisognerebbe poi saperlo interpretare. Uno studioso attento, infatti, dovrebbe essere in grado di dire in quali casi il mercato abbia fatto la storia, ed in quali casi l’abbia subita, ed ancora, quali comportamenti siano da ritenersi fisiologici e quali patologici.
Nella prima parte di questo lavoro, sarà nostra intenzione, fornire un excursus sui principali sviluppi che l’interpretazione e lo studio dei mercati finanziari hanno avuto, segnalando tutti i contributi più rilevanti di quasi un secolo di storia.
Nel secondo capitolo, cercheremo invece di fornire una panoramica delle iterazioni e dei metodi di analisi che la psicologia sta studiando in questi ultimi anni, per ottenere una spiegazione a fenomeni dei mercati finanziari che la “pura” razionalità economica non è in grado di giustificare. Si partirà quindi da un accertamento degli aspetti sociali e culturali, per poi soffermarsi su un’indagine di natura psicologico-comportamentale in cui si individueranno tutti quei fattori che sono in netto contrasto con l’assunzione di razionalità ed i comportamenti massimizzanti, cui la letteratura economica e finanziaria fanno da sempre riferimento, giungendo a tracciare un profilo degli operatori piuttosto instabile ed irrazionale.
Nel terzo capitolo, presenteremo le diverse tipologie d’indagine che un analista deve seguire per addivenire ad un’analisi completa ed equilibrata della reale situazione in cui si trova una società, considerando sia l’ambiente macroeconomico e settoriale nel quale si colloca, sia la principali variabili microeconomiche che ne guidano lo sviluppo. Conseguentemente si proporrà un’analisi dei cicli economici utile ad individuare il mercato di questi anni all’interno di periodiche oscillazioni secolari come quelle scoperte da Kondratieff ed altri studiosi, e che il pendolo della storia sembra scandire con devota puntualità. Questi infatti, sembrano essere entrambi fenomeni con cui la teoria dell’efficienza dovrebbe misurarsi, perché costituiscono una forma di prevedibilità, anche se su orizzonti temporali estesi.
Nel quarto capitolo, procederemo col mostrare le più comuni tecniche di analisi fondamentale che si usano nella prassi per svolgere previsioni sui fondamentali di una società, allo scopo di calcolarne “un prezzo equo” e poterlo così confrontare con la quotazione che la stessa assume costantemente sul mercato finanziario, oltre che poter prendere decisioni d’investimento con la massima consapevolezza e razionalità economica.
Infine nell’ultimo capitolo, mostreremo quale secondo noi, dovrebbe essere un processo d’investimento “razionale”, che riesca a “collegare” tutti gli approcci a disposizione dell’analisita fondamentale, come abbiamo pesentato nel corso dell’opera. Non è stata nostra intenzione focalizzarci troppo sulla scoperta del sistema di screening dei titoli azionari presentato nell’ultimo capitolo, nonostante i risultati dimostrati, lascino pensare che un sistema del genere possa ssere autosufficiente per intraprendere scelte d’investimento corrette e razionali sui mercati analizzati. Questo perché non vogliamo fornire l’idea che un tipo di analisi del genere, seppur fondata su di un modello di comprovata efficacia, possa convincere l’investitore che un adeguato processo d’investimento si basi su singoli strumenti del genere; nostro obiettivo, è quello di mostrare un processo razionale che chiunque operi nei mercati finanziari dovrebbe intraprendere, se intenzionato ad investire seguendo i possibili e variegati approcci a disposione dell’analista fondamentale. La nostra intenzione infatti, sarà quella di mostrare un ordine logico di pensiero, procedendo secondo il quale, l’analista dovrebbe essere in grado di non incorrere in valutazioni incoerenti o slegate del ciclo economico, che guida l’economia e quindi indirettamente, le valutazioni stesse. Così facendo, crediamo che un operatore dei mercati finanziari, possa minimizzare i rischi di arrivare a definire valutazioni “gonfiate” da eventi esogeni, ma piuttosto riuscire a “interpretare” certe eventuali manifestazioni alla luce del contesto in cui si realizzano, per essere pronto ad intervenire nella maniera più opportuna sui mercati, seguendo le scelte operative più razionali e coerenti con i reali valori in gioco.
Siamo dell’idea, che la molteplicità di contributi, non faccia che arricchire le nostre conoscenze, soprattutto di fronte al “panorama di ombre” che ci troviamo ad affrontare, ogniqualvolta ci venga l’idea di procedere con degli investimenti rischiosi e dall’incerto destino. Speriamo quindi che al termine di questo lavoro, un qualunque lettore possa apprezzare e condividere il nostro punto di vista.XX Ciclo197
- …
