12,057 research outputs found

    Translating farmers' objectives and preferences into scenario sets for the design and assessment of (smallholder) crop-Iivestock systems

    Full text link
    Dairy farmers of the South use a diversity of feed resources, cultivated or not, together with crop residues and different types and amounts of supplements. Feed requirements may be met by purchasing concentrated dairy meals, allocating land to fodder production or making use of the natural vegetation in communally or privately owned grazing lands. All these strategies entail different degrees of economic and environmental risks and impacts, depending on the nature of the biophysical resource base, the livelihood strategy and market orientation of the household, and the broader socio-economic context. Livelihood strategies are driven by the objectives and preferences of the decision-maker, his or her attitudes towards risks and the resulting resource allocation pattern. We examined examples from smallholder crop-livestock systems in Latin America and Africa where competing uses for financial, land and labour resources make it difficult to find an optimum design (e.g., through allocation of land to crop vs. fodder production) of the crop-livestock system. We propose the use of companion modeling to assist co-innovation processes thereby formalizing opportunities and constraints for the production systems and encompassing the decision maker objectives and preferences. This methodology is being used in two case studies in the highlands of Central Kenya and in Central Mexico. Objectives and preferences were derived through participatory work. These were used together with a dynamic simulation tool to analyse plausible pathways for intensification. The modelling tool (NUANCES-FARMSIM) includes relatively simple crop-soil, livestock, and organic resource management sub-models, a labour and a cash balance. The analytical tool includes a decision making module, equipped with a MGLP (multiple goal linear programming) model which combines stepwise the results from the dynamic simulations with prices for inputs and outputs, and objectives and preferences, making the decision making dynamic at a different temporal scale. The results of the modelling exercise are presented to the farmers and other stakeholders to stimulate discussions on alternative management of their systems. Lessons learnt from the companion modelling exercises show that most dairy farmers making non-optimal tactical decisions and are willing to stay in the sector at lower profit levels and the model selects using the objectives and preferences reported by the farmers. According to the simulations, strategic decisions such as planning replacements and balancing the herd structure results in the largest biophysical productivity and profit at a large range of prices of inputs and outputs. (Résumé d'auteur

    Integrating spatial indicators in the surveillance of exploited marine ecosystems

    Get PDF
    Spatial indicators are used to quantify the state of species and ecosystem status, that is the impacts of climate and anthropogenic changes, as well as to comprehend species ecology. These metrics are thus, determinant to the stakeholder's decisions on the conservation measures to be implemented. A detailed review of the literature (55 papers) showed that 18 spatial indicators were commonly used in marine ecology. Those indicators were than characterized and studied in detail, based on its application to empirical data (a time series of 35 marine species spatial distributions, sampled either with a random stratified survey or a regular transects surveys). The results suggest that the indicators can be grouped into three classes, that summarize the way the individuals occupy space: occupancy (the area occupied by a species), aggregation (spreading or concentration of species biomass) and quantity dependent (indicators correlated with biomass), whether these are spatially explicit (include the geographic coordinates, e.g. center of gravity) or not. Indicator's temporal variability was lower than between species variability and no clear effect was observed in relation to sampling design. Species were then classified accordingly to their indicators. One indicator was selected from each of the three categories of indicators, to represent the main axes of species spatial behavior and to interpret them in terms of occupancy-aggregation-quantity relationships. All species considered were then classified according to their relationships among those three axes, into species that under increasing abundancy, primarily increase occupancy or aggregation or both. We suggest to use these relationships along the three-axes as surveillance diagrams to follow the yearly evolution of species distributional patterns in the future.MSFD from Franceinfo:eu-repo/semantics/publishedVersio

    Carbon and nutrient losses during manure storage under traditional and improved practices in smallholder crop-livestock systems - evidence from Kenya

    Get PDF
    In the absence of mineral fertiliser, animal manure may be the only nutrient resource available to smallholder farmers in Africa, and manure is often the main input of C to the soil when crop residues are removed from the fields. Assessments of C and nutrient balances and cycling within agroecosystems or of greenhouse gas emissions often assume average C and nutrient mass fractions in manure, disregarding the impact that manure storage may have on C and nutrient losses from the system. To quantify such losses, in order to refine our models of C and nutrient cycling in smallholder (crop-livestock) farming systems, an experiment was conducted reproducing farmers’ practices: heaps vs. pits of a mix of cattle manure and maize stover (2:3 v/v) stored in the open air during 6 months. Heaps stored under a simple roof were also evaluated as an affordable improvement of the storage conditions. The results were used to derive empirical models and graphs for the estimation of C and nutrient losses. Heaps and pits were turned every month, weighed, and sampled to determine organic matter, total and mineral N, P and K mass fractions. Soils beneath heaps/pits were sampled to measure mineral N to a depth of 1 m, and leaching tube tests in the laboratory were used to estimate P leaching from manure. After 6 months, ca. 70% remained of the initial dry mass of manure stored in pits, but only half of or less of the manure stored in heaps. The stored manure lost 45% of its C in the open air and 69% under roof. The efficiencies of nutrient retention during storage varied between 24–38% for total N, 34–38% for P and 18–34% for K, with the heaps under a roof having greater efficiencies of retention of N and K. Laboratory tests indicated that up to 25% of the P contained in fresh manure could be lost by leaching. Results suggest that reducing the period of storage by, for example, more frequent application and incorporation of manure into the soil may have a larger impact on retaining C and nutrient within the farm system than improving storage condition

    Desempenho comparativo do BLAST e do mpiBLAST

    Get PDF
    Em Bioinformática são frequentes problemas cujo tratamento necessita de considerável poder de processamento/cálculo e/ou grande capacidade de armazenamento de dados e elevada largura de banda no acesso aos mesmos (de forma não comprometer a eficiência do seu processamento). Um exemplo deste tipo de problemas é a busca de regiões de similaridade em sequências de amino-ácidos de proteínas, ou em sequências de nucleótidos de DNA, por comparação com uma dada sequência fornecida (query sequence). Neste âmbito, a ferramenta computacional porventura mais conhecida e usada é o BLAST (Basic Local Alignment Search Tool) [1]. Donde, qualquer incremento no desempenho desta ferramenta tem impacto considerável (desde logo positivo) na atividade de quem a utiliza regularmente (seja para investigação, seja para fins comerciais). Precisamente, desde que o BLAST foi inicialmente introduzido, foram surgindo diversas versões, com desempenho melhorado, nomeadamente através da aplicação de técnicas de paralelização às várias fases do algoritmo (e. g., partição e distribuição das bases de dados a pesquisar, segmentação das queries, etc. ), capazes de tirar partido de diferentes ambientes computacionais de execução paralela, como: máquinas multi-core (BLAST+ 2), clusters de nós multi-core (mpiBLAST3J e, mais recentemente, co-processadores aceleradores como GPUs" ou FPGAs. É também possível usar as ferramentas da família BLAST através de um interface/sítio WEB5, que permite, de forma expedita, a pesquisa de uma variedade de bases de dados conhecidas (e em permanente atualização), com tempos de resposta suficientemente pequenos para a maioria dos utilizadores, graças aos recursos computacionais de elevado desempenho que sustentam o seu backend. Ainda assim, esta forma de utilização do BLAST poderá não ser a melhor opção em algumas situações, como por exemplo quando as bases de dados a pesquisar ainda não são de domínio público, ou, sendo-o, não estão disponíveis no referido sitio WEB. Adicionalmente, a utilização do referido sitio como ferramenta de trabalho regular pressupõe a sua disponibilidade permanente (dependente de terceiros) e uma largura de banda de qualidade suficiente, do lado do cliente, para uma interacção eficiente com o mesmo. Por estas razões, poderá ter interesse (ou ser mesmo necessário) implantar uma infra-estrutura BLAST local, capaz de albergar as bases de dados pertinentes e de suportar a sua pesquisa da forma mais eficiente possível, tudo isto levando em conta eventuais constrangimentos financeiros que limitam o tipo de hardware usado na implementação dessa infra-estrutura. Neste contexto, foi realizado um estudo comparativo de diversas versões do BLAST, numa infra-estrutura de computação paralela do IPB, baseada em componentes commodity: um cluster de 8 nós (virtuais, sob VMWare ESXi) de computação (com CPU Í7-4790K 4GHz, 32GB RAM e 128GB SSD) e um nó dotado de uma GPU (CPU Í7-2600 3.8GHz, 32GB RAM, 128 GB SSD, 1 TB HD, NVIDIA GTX 580). Assim, o foco principal incidiu na avaliação do desempenho do BLAST original e do mpiBLAST, dado que são fornecidos de base na distribuição Linux em que assenta o cluster [6]. Complementarmente, avaliou-se também o BLAST+ e o gpuBLAST no nó dotado de GPU. A avaliação contemplou diversas configurações de recursos, incluindo diferentes números de nós utilizados e diferentes plataformas de armazenamento das bases de dados (HD, SSD, NFS). As bases de dados pesquisadas correspondem a um subconjunto representativo das disponíveis no sitio WEB do BLAST, cobrindo uma variedade de dimensões (desde algumas dezenas de MBytes, até à centena de GBytes) e contendo quer sequências de amino-ácidos (env_nr e nr), quer de nucleótidos (drosohp. nt, env_nt, mito. nt, nt e patnt). Para as pesquisas foram 'usadas sequências arbitrárias de 568 letras em formato FASTA, e adoptadas as opções por omissão dos vários aplicativos BLAST. Salvo menção em contrário, os tempos de execução considerados nas comparações e no cálculo de speedups são relativos à primeira execução de uma pesquisa, não sendo assim beneficiados por qualquer efeito de cache; esta opção assume um cenário real em que não é habitual que uma mesma query seja executada várias vezes seguidas (embora possa ser re-executada, mais tarde). As principais conclusões do estudo comparativo realizado foram as seguintes: - e necessário acautelar, à priori, recursos de armazenamento com capacidade suficiente para albergar as bases de dados nas suas várias versões (originais/compactadas, descompactadas e formatadas); no nosso cenário de teste a coexistência de todas estas versões consumiu 600GBytes; - o tempo de preparação (formataçâo) das bases de dados para posterior pesquisa pode ser considerável; no nosso cenário experimental, a formatação das bases de dados mais pesadas (nr, env_nt e nt) demorou entre 30m a 40m (para o BLAST), e entre 45m a 55m (para o mpiBLAST); - embora economicamente mais onerosos, a utilização de discos de estado sólido, em alternativa a discos rígidos tradicionais, permite melhorar o tempo da formatação das bases de dados; no entanto, os benefícios registados (à volta de 9%) ficam bastante aquém do inicialmente esperado; - o tempo de execução do BLAST é fortemente penalizado quando as bases de dados são acedidas através da rede, via NFS; neste caso, nem sequer compensa usar vários cores; quando as bases de dados são locais e estão em SSD, o tempo de execução melhora bastante, em especial com a utilização de vários cores; neste caso, com 4 cores, o speedup chega a atingir 3.5 (sendo o ideal 4) para a pesquisa de BDs de proteínas, mas não passa de 1.8 para a pesquisa de BDs de nucleótidos; - o tempo de execução do mpiBLAST é muito prejudicado quando os fragmentos das bases de dados ainda não se encontram nos nós do cluster, tendo que ser distribuídos previamente à pesquisa propriamente dita; após a distribuição, a repetição das mesmas queries beneficia de speedups de 14 a 70; porém, como a mesma base de dados poderá ser usada para responder a diferentes queries, então não é necessário repetir a mesma query para amortizar o esforço de distribuição; - no cenário de teste, a utilização do mpiBLAST com 32+2 cores, face ao BLAST com 4 cores, traduz-se em speedups que, conforme a base de dados pesquisada (e previamente distribuída), variam entre 2 a 5, valores aquém do máximo teórico de 6.5 (34/4), mas ainda assim demonstradores de que, havendo essa possibilidade, compensa realizar as pesquisas em cluster; explorar vários cores) e com o gpuBLAST, realizada no nó com GPU (representativo de uma workstation típica), permite aferir qual a melhor opção no caso de não serem possíveis pesquisas em cluster; as observações realizadas indicam que não há diferenças significativas entre o BLAST e o BLAST+; adicionalmente, o desempenho do gpuBLAST foi sempre pior (aproximadmente em 50%) que o do BLAST e BLAST+, o que pode encontrar explicação na longevidade do modelo da GPU usada; - finalmente, a comparação da melhor opção no nosso cenário de teste, representada pelo uso do mpiBLAST, com o recurso a pesquisa online, no site do BLAST5, revela que o mpiBLAST apresenta um desempenho bastante competitivo com o BLAST online, chegando a ser claramente superior se se considerarem os tempos do mpiBLAST tirando partido de efeitos de cache; esta assunção acaba por se justa, Já que BLAST online também rentabiliza o mesmo tipo de efeitos; no entanto, com tempos de pequisa tão reduzidos (< 30s), só é defensável a utilização do mpiBLAST numa infra-estrutura local se o objetivo for a pesquisa de Bds não pesquisáveis via BLAS+ online

    L@s niñ@s buen@s hacen los deberes (L@s mal@s, copian de Internet)

    Get PDF
    “No sé cómo trabajábamos antes sin Internet” Es una frase que los periodistas escuchamos (y pronunciamos) constantemente. Nos resulta tan habitual utilizar la Red como fuente de información que apenas recordamos cómo trabajábamos cuando no estaba a nuestro alcance. Esta herramienta tan valiosa que tanto facilita nuestro día a día es un arma de doble filo. Los periodistas parecemos haber olvidado algunas de nuestras normas clásicas, por ejemplo la que nos obliga a contrastar toda información. Desde que Internet ha aparecido en nuestras vidas nos equivocamos más.“I don’t know how we worked before Internet” Is something that journalist use to listen (and to declare) often. Using the World Wide Web is so habitual that we don’t remember how we were working when it isn’t exists. This valuable tool, which greatly facilitates our daily work is a two-edged weapon. Journalists seem to have forgotten some of our classic standards, for example, that we must compare all information. Since the Internet has appeared in our lives we make more mistakes“Je ne sais pas comment l’on travaillait avant l’Internet” est une phrase commune entre les journalistes. Au jourd’hui l’utilisation de l’Internet est si habituelle que les professionnaux ne se souviennent pas même comment est-ce qui’ ils travaillaient quand elle n’existait pas. Cet endroit valieux, que fait infinimment plus simple le travail des journalistes, est en train de devenir une arme à deux fils. Les journalistes commencent a perdre de vue ses règles classiques, par example, la comparation des informations. Dès l’arrivée de l’Internet les journalistes font de plus en plus plus d’erreurs
    corecore