1,275 research outputs found

    Microphase separation in thin block copolymer films: a weak segregation mean-field approach

    Full text link
    In this paper we consider thin films of AB block copolymer melts confined between two parallel plates. The plates are identical and may have a preference for one of the monomer types over the other. The system is characterized by four parameters: the Flory-Huggins chi-parameter, the fraction f of A-monomers in the block copolymer molecules, the film thickness d, and a parameter h quantifying the preference of the plates for the monomers of type A. In certain regions of parameter space, the film will be microphase separated. Various structures have been observed experimentally, each of them characterized by a certain symmetry, orientation, and periodicity. We study the system theoretically using the weak segregation approximation to mean field theory. We restrict our analysis to the region of the parameter space where the film thickness d is close to a small multiple of the natural periodicity. We will present our results in the form of phase diagrams in which the absolute value of the deviation of the film thickness from a multiple of the bulk periodicity is placed along the horizontal axis, and the chi-parameter is placed along the vertical axis; both axes are rescaled with a factor which depends on the A-monomer fraction f. We present a series of such phase diagrams for increasing values of the surface affinity for the A-monomers. We find that if the film thickness is almost commensurate with the bulk periodicity, parallel orientations of the structures are favoured over perpendicular orientations. We also predict that on increasing the surface affinity, the region of stability of the bcc phase shrinks.Comment: 35 pages, 20 figure

    Compression of finite size polymer brushes

    Full text link
    We consider edge effects in grafted polymer layers under compression. For a semi-infinite brush, the penetration depth of edge effects ξh0(h0/h)1/2\xi\propto h_0(h_0/h)^{1/2} is larger than the natural height h0h_0 and the actual height hh. For a brush of finite lateral size SS (width of a stripe or radius of a disk), the lateral extension uSu_S of the border chains follows the scaling law uS=ξϕ(S/ξ)u_S = \xi \phi (S/\xi). The scaling function ϕ(x)\phi (x) is estimated within the framework of a local Flory theory for stripe-shaped grafting surfaces. For small xx, ϕ(x)\phi (x) decays as a power law in agreement with simple arguments. The effective line tension and the variation with compression height of the force applied on the brush are also calculated.Comment: 6 pages, 7 figures, submitted to PCC

    Interchain monomer contact probability in two-dimensional polymer solutions

    Full text link
    Using molecular dynamics simulation of a standard bead-spring model we investigate the density crossover scaling of strictly two-dimensional self-avoiding polymer chains focusing on properties related to the contact exponent set by the intrachain subchain size distribution. Irrespective of the density sufficiently long chains are found to consist of compact packings of blobs of fractal perimeter dimension dp = 5/4

    Stretching necklaces

    Full text link
    Polyelectrolytes in poor solvents show a necklace structure where collapsed polymer pearls are linked to stretched strings. In the present paper the elasticity of such chains is studied in detail. Different deformation regimes are addressed. The first is the continuous regime, where many pearls are present. A continuous force extension relation ship is calculated. The main contribution comes from the tension balance and the electrostatic repulsion of consecutive pearls. The main correction term stems from the finite size of the pearls, which monitors their surface energy. For a finite amount of pearls discontinuous stretching is predicted. Finally counterion effects are discussed qualitatively.Comment: to appear in European Phys. Journal E (soft matter

    A finite excluded volume bond-fluctuation model: Static properties of dense polymer melts revisited

    Full text link
    The classical bond-fluctuation model (BFM) is an efficient lattice Monte Carlo algorithm for coarse-grained polymer chains where each monomer occupies exclusively a certain number of lattice sites. In this paper we propose a generalization of the BFM where we relax this constraint and allow the overlap of monomers subject to a finite energy penalty \overlap. This is done to vary systematically the dimensionless compressibility gg of the solution in order to investigate the influence of density fluctuations in dense polymer melts on various s tatic properties at constant overall monomer density. The compressibility is obtained directly from the low-wavevector limit of the static structure fa ctor. We consider, e.g., the intrachain bond-bond correlation function, P(s)P(s), of two bonds separated by ss monomers along the chain. It is shown that the excluded volume interactions are never fully screened for very long chains. If distances smaller than the thermal blob size are probed (sgs \ll g) the chains are swollen acc ording to the classical Fixman expansion where, e.g., P(s)g1s1/2P(s) \sim g^{-1}s^{-1/2}. More importantly, the polymers behave on larger distances (sgs \gg g) like swollen chains of incompressible blobs with P(s) \si m g^0s^{-3/2}.Comment: 46 pages, 12 figure

    Investissements immobiliers directs: quantification du risque par la modélisation stochastique du portefeuille

    Get PDF
    Depuis quelques années, l’immobilier de rendement a gagné une place de choix dans les portefeuilles des investisseurs institutionnels et privés. Cet engouement engendre un besoin naturel de sophistication et de professionnalisation des techniques de gestion de portefeuille et des risques. Cependant, de par la nature de cette classe d’actifs, le risque d’un investissement immobilier direct reste difficile à appréhender et à quantifier. Nous remarquons, par exemple, que les outils de gestion des risques traditionnellement employés en finance de marché ne peuvent être utilisés pour quantifier le risque d’un immeuble de rapport. Ainsi, notre travail a pour objectif de proposer une méthodologie de quantification du risque d’un portefeuille immobilier direct. Le modèle que nous proposons, permet de développer une vision prospective du rendement et du risque d’un portefeuille immobilier et de ses actifs constitutifs. Pour ce faire, nous décomposons la structure des cash-flows de chaque actif et nous relions chaque flux à un facteur de risque sous-jacent. Par l’utilisation de simulations de Monte Carlo, nous obtenons une modélisation stochastique du portefeuille immobilier. Dans le cadre de ce travail, nous implémentons cette méthodologie pour un portefeuille immobilier institutionnel. Ce portefeuille est composé de douze immeubles sis en Suisse et représente une valeur estimée à plus de CHF 307 millions. Cette approche nous permet d’obtenir la distribution des valeurs actuelles des actifs constitutifs du portefeuille et d’estimer leur rendement prospectif sur l’horizon de projection. De plus, ce modèle nous permet de quantifier le risque inhérent au portefeuille analysé. Dans ce cadre, nous sommes en mesure de calculer la volatilité du portefeuille, mais aussi sa Value-at-Risk et son maximum drawdown. En outre, ces simulations peuvent servir d’outils de pilotage du portefeuille, notamment dans le cadre d’une gestion actif-passif, mais aussi en permettant de déterminer la période de détention optimale des actifs

    Etude pour le choix d'un logiciel de gestion documentaire: réalisation pour La Mémoire de Veyrier

    Get PDF
    Ce mémoire décrit l’étude menée pour le choix d’une solution de gestion documentaire, adaptée à La Mémoire de Veyrier, groupement de la commune de Veyrier. Cet organisme, sans statut juridique propre, possède de nombreuses archives ayant trait à la vie d’hier et d’aujourd’hui de la commune. Le mandat a pour objectif de combler ses lacunes en gestion documentaire et d’identifier une solution adaptée au référencement de son fonds. Outre l’état de l’art et l’analyse de l’existant pour le mandataire, ce mémoire comprend un état des lieux des solutions informatiques existantes pour la gestion d’archives. Les principaux livrables de ce travail sont des recommandations pour la mise en place d’une gestion archivistique par une équipe non professionnelle ainsi que la sélection d’un logiciel adapté. Bien que l’objectif premier de ce mandat soit de mettre en avant une solution de gestion informatisée, rapidement est apparue la nécessité de mettre en place, au préalable, des règles et outils de gestion servant de bases solides à l’informatisation à venir. Si la mise en oeuvre effective de la solution n’est pas prévue par le mandat, le présent mémoire fournit des indications précises sur les ressources humaines et budgétaires nécessaires à l’implémentation du logiciel. Le choix du logiciel AtoM s’inscrit dans une démarche visant à assurer la pérennité du fonds et à uniformiser les pratiques documentaires des contributeurs. AtoM a été désigné après une analyse approfondie, il répond parfaitement aux besoins exprimés par La Mémoire de Veyrier
    corecore