14 research outputs found
Light-Front Model of Transition Form-Factors in Heavy Meson Decay
Electroweak transition form factors of heavy meson decays are important
ingredients in the extraction of the Cabibbo-Kobayashi-Maskawa (CKM) matrix
elements from experimental data. In this work, within a light-front framework,
we calculate electroweak transition form factor for the semileptonic decay of
mesons into a pion or a kaon. The model results underestimate in both cases
the new data of CLEO for the larger momentum transfers accessible in the
experiment. We discuss possible reasons for that in order to improve the model.Comment: Paper with 5 pages and 2 eps figures. To appear to Nuclear Physics B.
Talk at Light Cone 2009: Relativistic Hadronic and Particle Physics (LC
2009), Sao Jose dos Campos, S.P, Brazil, 8-13 Jul 2009
Breakfast habits and factors influencing food choices at breakfast in relation to socio-demographic and family factors among European adolescents. The HELENA Study §
A B S T R A C T Breakfast consumption has been shown to be an important indicator of a healthy lifestyle. Little is known however about factors influencing breakfast consumption and food choices at breakfast in adolescents. The aim of the present study was therefore to describe breakfast habits, and factors influencing food choices at breakfast within the framework of the EU-funded HELENA Study, in 3528 adolescents from ten European cities. Additionally, socio-demographic differences in breakfast habits and in influencing factors were investigated. Half of the adolescents (and fewer girls than boys) indicated being regular breakfast consumers. Girls with mothers with a high level of education, boys from 'traditional' families and boys who perceived low family affluence were positively associated with breakfast consumption. Boys whose parents gave encouragement and girls whose peers ate healthily were more likely to be regular breakfast consumers. 'Hunger', 'taste', 'health concerns' and 'parents or guardian' were the most important influences on the adolescents' food choices at breakfast. Adolescents from southern Europe and girls reported to be more influenced by personal and socio-environmental factors. Sociodemographic differences, in particular regional and gender differences, need to be considered in discussions surrounding the development of nutritional intervention programs intended for adolescents.
Etableringen av Värmlands regemente i Karlstad 1913. : Konsekvenserna för stadens ordningsmakt.
Värmlands regementes garnisonerades i Karlstad år 1913. Undersökningens syfte är att studera konsekvenserna detta fick för stadspolisen och relationerna mellan polis och militär. Undersökningsfrågorna hanterar vilka incidenter polisen ställdes för på grund av militärer, hur lagbrytande militärer bestraffades och relationerna mellan polisen och militären i staden. De avgränsas till de första åren efter garnisoneringen genom ett urval av fyra år. Tidigare forskning som använts i arbetet beskriver hur polisen såg ut i början av 1900-talet, lite hur militärrätt fungerade, införandet av värnplikt och vad garnisoneringen av städer, under perioden, innebar. Det använda källmaterialet kommer huvudsakligen från Stadsfiskalen i Karlstads arkiv. Metoden som används är huvudsakligen kvalitativ textanalys och tolkning av källmaterialet, men också lite kvantitativ studie av brottstrender. Undersökningen täcker hur fylleri och andra brott av soldater hanterades av polisen, och även de oroligheter mellan Karlstads civilbefolkning och militären som följde garnisoneringen och polisens roll emellan dem. Sedan följer samarbetet mellan polis och militär. Först hur militären hjälpte polisen hålla ordning, och fenomenet av den militära extra polisen. Efter det behandlas polisens uppsiktsfunktion inom mobiliseringen av värnpliktiga och hur de efterspanade de som inte inställde sig till tjänstgöring. Till sist kommer ett avsnitt om hur bestraffningar hanterades, skiljelinjen mellan civil- och militärrätt och hur det var vanligast med böter och disciplinära straff av regementschefen. Ur undersökningen framkommer det att antalet incidenter som involverar militärer var obetydliga, men att farhågorna om dem ändå starkt effektuerade polisens arbetsmängd. Polisen hade en viktig roll inom mobiliseringsapparaten, men att Värmlands regementes kasernering i staden inte hade så stor påverkan på den delen av polisens arbete, snarare var det införandet av allmän värnplikt som hade det. Slutligen visar det sig att polisledningen och militärbefälet hade ett starkt samarbete men att detsamma inte gällde för deras underlydande
Etableringen av Värmlands regemente i Karlstad 1913. : Konsekvenserna för stadens ordningsmakt.
Värmlands regementes garnisonerades i Karlstad år 1913. Undersökningens syfte är att studera konsekvenserna detta fick för stadspolisen och relationerna mellan polis och militär. Undersökningsfrågorna hanterar vilka incidenter polisen ställdes för på grund av militärer, hur lagbrytande militärer bestraffades och relationerna mellan polisen och militären i staden. De avgränsas till de första åren efter garnisoneringen genom ett urval av fyra år. Tidigare forskning som använts i arbetet beskriver hur polisen såg ut i början av 1900-talet, lite hur militärrätt fungerade, införandet av värnplikt och vad garnisoneringen av städer, under perioden, innebar. Det använda källmaterialet kommer huvudsakligen från Stadsfiskalen i Karlstads arkiv. Metoden som används är huvudsakligen kvalitativ textanalys och tolkning av källmaterialet, men också lite kvantitativ studie av brottstrender. Undersökningen täcker hur fylleri och andra brott av soldater hanterades av polisen, och även de oroligheter mellan Karlstads civilbefolkning och militären som följde garnisoneringen och polisens roll emellan dem. Sedan följer samarbetet mellan polis och militär. Först hur militären hjälpte polisen hålla ordning, och fenomenet av den militära extra polisen. Efter det behandlas polisens uppsiktsfunktion inom mobiliseringen av värnpliktiga och hur de efterspanade de som inte inställde sig till tjänstgöring. Till sist kommer ett avsnitt om hur bestraffningar hanterades, skiljelinjen mellan civil- och militärrätt och hur det var vanligast med böter och disciplinära straff av regementschefen. Ur undersökningen framkommer det att antalet incidenter som involverar militärer var obetydliga, men att farhågorna om dem ändå starkt effektuerade polisens arbetsmängd. Polisen hade en viktig roll inom mobiliseringsapparaten, men att Värmlands regementes kasernering i staden inte hade så stor påverkan på den delen av polisens arbete, snarare var det införandet av allmän värnplikt som hade det. Slutligen visar det sig att polisledningen och militärbefälet hade ett starkt samarbete men att detsamma inte gällde för deras underlydande
Taktisk ruttplanering i stridssimuleringar med omvänd förstärkt inlärning
In this report Deep Maximum Entropy Inverse Reinforcement Learning has been applied to the problem of route planning in rough terrain, while taking tactical parameters into account. The tactical parameters that the report focuses on is to avoid detection from predetermined static observers by keeping blocking terrain in the sight line. The experiments have been done in a simplified gridworld using generated "expert" routes in place of an actual expert. The purpose of the project is to serve as an indication that this algorithm can be used to model these types of problems. The results show that the algorithm indeed can approximate this type of function, but it remains to be proven that the methods are useful when examples are taken from an actual expert, and applied in a real world scenario. Another finding is that the choice of Value Iteration as the algorithm for calculating policies turns out to be very time consuming which limits the amount of training and the scope of the possible problem.I den här rapporten har Djup Omvänd Förstärkt Inlärning med Maximal Entropi applicerats på ett ruttplaneringsproblem genom ojämn terräng, med åtanke på taktiska parametrar. De taktiska parametrarna som rappoten fokuserar på är att unvika upptäckt från förutbestämda statiska observatörer genom att röra sig så att blokerande terräng placeras i siktlinjen. Experimenten har genomförts i en simpel rutnätsvärld och använder sig av genererade "expertrutter", istället för en faktisk expert. Syftet med projektet är att genom detta få en indikation på om denna algoritm är lämplig för att modellera denna typ av problem. Resultaten visar att algorithmen mycket riktigt klarar av att approximera denna typ av funktion, men det återstår fortfarande att bevisa att metoden är användbar när exempel är tagna från en riktig expert och applicerade på scenarion från riktiga världen. En annan upptäckt är att valet av Värdeiterering visar sig vara väldigt tidskrävande vilket begränsar mängden träning som kan göras och storleken på möjliga problemet
Taktisk ruttplanering i stridssimuleringar med omvänd förstärkt inlärning
In this report Deep Maximum Entropy Inverse Reinforcement Learning has been applied to the problem of route planning in rough terrain, while taking tactical parameters into account. The tactical parameters that the report focuses on is to avoid detection from predetermined static observers by keeping blocking terrain in the sight line. The experiments have been done in a simplified gridworld using generated "expert" routes in place of an actual expert. The purpose of the project is to serve as an indication that this algorithm can be used to model these types of problems. The results show that the algorithm indeed can approximate this type of function, but it remains to be proven that the methods are useful when examples are taken from an actual expert, and applied in a real world scenario. Another finding is that the choice of Value Iteration as the algorithm for calculating policies turns out to be very time consuming which limits the amount of training and the scope of the possible problem.I den här rapporten har Djup Omvänd Förstärkt Inlärning med Maximal Entropi applicerats på ett ruttplaneringsproblem genom ojämn terräng, med åtanke på taktiska parametrar. De taktiska parametrarna som rappoten fokuserar på är att unvika upptäckt från förutbestämda statiska observatörer genom att röra sig så att blokerande terräng placeras i siktlinjen. Experimenten har genomförts i en simpel rutnätsvärld och använder sig av genererade "expertrutter", istället för en faktisk expert. Syftet med projektet är att genom detta få en indikation på om denna algoritm är lämplig för att modellera denna typ av problem. Resultaten visar att algorithmen mycket riktigt klarar av att approximera denna typ av funktion, men det återstår fortfarande att bevisa att metoden är användbar när exempel är tagna från en riktig expert och applicerade på scenarion från riktiga världen. En annan upptäckt är att valet av Värdeiterering visar sig vara väldigt tidskrävande vilket begränsar mängden träning som kan göras och storleken på möjliga problemet
Uppskalning av maximal entropisk djup omvänd förstärkt inlärning med övergångslärning
In this thesis an issue with common inverse reinforcement learning algorithms is identified, which causes them to be computationally heavy. A solution is proposed which attempts to address this issue and which can be built upon in the future. The complexity of inverse reinforcement algorithms is increased because at each iteration something called a reinforcement learning step is performed to evaluate the result of the previous iteration and guide future learning. This step is slow to perform for problems with large state spaces and where many iterations are required. It has been observed that the problem solved in this step in many cases is very similar to that of the previous iteration. Therefore the solution suggested is to utilize transfer learning to retain some of the learned information and improve speed at subsequent steps. In this thesis different forms of transfers are evaluated for common reinforcement learning algorithms when applied to this problem. Experiments are run using value iteration and Q-learning as the algorithms for the reinforcement learning step. The algorithms are applied to two route planning problems and it is found that in both cases a transfer can be useful for improving calculation times. For value iteration the transfer is easy to understand and implement and shows large improvements in speed compared to the basic method. For Q-learning the implementation contains more variables and while it shows an improvement it is not as dramatic as that for value iteration. The conclusion drawn is that for inverse reinforcement learning implementations using value iteration a transfer is always recommended while for implementations using other algorithms for the reinforcement learning step a transfer is most likely recommended but more experimentation needs to be conducted.I denna uppsats identifieras ett vanligt problem med algoritmer för omvänd förstärkt inlärning vilket leder till att de blir beräkningstunga. En lösning föreslås som försöker addressera problemet och som kan byggas på i framtiden. Komplexiteten i algoritmer för omvänd förstärkt inlärning ökar på grund av att varje iteration kräver ett så kallat förstärkt inlärnings-steg som har som syfte att utvärdera föregående iteration och guida lärandet. Detta steg tar lång tid att genomföra för problem med stor tillståndsrymd och där många iterationer är nödvändiga. Det har observerats att problemet som löses i detta steg i många fall är väldigt likt det problem som löstes i föregående iteration. Därför är den föreslagna lösningen att använda sig av informationsöverföring för att ta tillvara denna kunskap. I denna uppsats utvärderas olika former av informationsöverföring för vanliga algoritmer för förstärkt inlärning på detta problem. Experiment görs med value iteration och Q-learning som algoritmerna för förstärkt inlärnings-steget. Algoritmerna appliceras på två ruttplanneringsproblem och finner att i båda fallen kan en informationsöverföring förbättra beräkningstider. För value iteration är överföringen enkel att implementera och förstå och visar stora förbättringar i hastighet jämfört med basfallet. För Qlearning har implementationen fler variabler och samtidigt som en förbättring visas så är den inte lika dramatisk som för value iteration. Slutsaterna som dras är att för implementationer av omvänd förstärkt inlärning där value iteration används som algoritm för förstärkt inlärnings-steget så rekommenderas alltid en informationsöverföring medan för implementationer som använder andra algoritmer så rekommenderas troligtvis en överföring men fler experiment skulle behöva utföras
Uppskalning av maximal entropisk djup omvänd förstärkt inlärning med övergångslärning
In this thesis an issue with common inverse reinforcement learning algorithms is identified, which causes them to be computationally heavy. A solution is proposed which attempts to address this issue and which can be built upon in the future. The complexity of inverse reinforcement algorithms is increased because at each iteration something called a reinforcement learning step is performed to evaluate the result of the previous iteration and guide future learning. This step is slow to perform for problems with large state spaces and where many iterations are required. It has been observed that the problem solved in this step in many cases is very similar to that of the previous iteration. Therefore the solution suggested is to utilize transfer learning to retain some of the learned information and improve speed at subsequent steps. In this thesis different forms of transfers are evaluated for common reinforcement learning algorithms when applied to this problem. Experiments are run using value iteration and Q-learning as the algorithms for the reinforcement learning step. The algorithms are applied to two route planning problems and it is found that in both cases a transfer can be useful for improving calculation times. For value iteration the transfer is easy to understand and implement and shows large improvements in speed compared to the basic method. For Q-learning the implementation contains more variables and while it shows an improvement it is not as dramatic as that for value iteration. The conclusion drawn is that for inverse reinforcement learning implementations using value iteration a transfer is always recommended while for implementations using other algorithms for the reinforcement learning step a transfer is most likely recommended but more experimentation needs to be conducted.I denna uppsats identifieras ett vanligt problem med algoritmer för omvänd förstärkt inlärning vilket leder till att de blir beräkningstunga. En lösning föreslås som försöker addressera problemet och som kan byggas på i framtiden. Komplexiteten i algoritmer för omvänd förstärkt inlärning ökar på grund av att varje iteration kräver ett så kallat förstärkt inlärnings-steg som har som syfte att utvärdera föregående iteration och guida lärandet. Detta steg tar lång tid att genomföra för problem med stor tillståndsrymd och där många iterationer är nödvändiga. Det har observerats att problemet som löses i detta steg i många fall är väldigt likt det problem som löstes i föregående iteration. Därför är den föreslagna lösningen att använda sig av informationsöverföring för att ta tillvara denna kunskap. I denna uppsats utvärderas olika former av informationsöverföring för vanliga algoritmer för förstärkt inlärning på detta problem. Experiment görs med value iteration och Q-learning som algoritmerna för förstärkt inlärnings-steget. Algoritmerna appliceras på två ruttplanneringsproblem och finner att i båda fallen kan en informationsöverföring förbättra beräkningstider. För value iteration är överföringen enkel att implementera och förstå och visar stora förbättringar i hastighet jämfört med basfallet. För Qlearning har implementationen fler variabler och samtidigt som en förbättring visas så är den inte lika dramatisk som för value iteration. Slutsaterna som dras är att för implementationer av omvänd förstärkt inlärning där value iteration används som algoritm för förstärkt inlärnings-steget så rekommenderas alltid en informationsöverföring medan för implementationer som använder andra algoritmer så rekommenderas troligtvis en överföring men fler experiment skulle behöva utföras
