Homepage

News Blog

  • Smart Cities: Quale Ruolo per La Ricerca?


    Smart Cities: Quale Ruolo per La Ricerca?


    Aula Magna, Università La Sapienza, Via Ariosto 25, Roma - 1 Luglio 2015


    Convegno Organizzato da Laboratorio Nazionale CINI Smart Cities & Communities

    registration sul form:
    https://docs.google.com/forms/d/1YbVaNKAzXQDjIYAGnq3dDvvI9OzKJYqflfVX0VC...
     

    Submitted by root on Fri, 2015-06-19 10:00
  • ANNUAL WORKSHOP on ICT FOR SMART CITIES & COMMUNITIES, I-CiTies 2015, CINI

    CALL FOR PROJECTS & IDEAS
    ANNUAL WORKSHOP on ICT FOR SMART CITIES & COMMUNITIES, I-CiTies 2015

     
    Palermo, Sicily, October 29-30, 2015
    http://www.dicgim.unipa.it/networks/icities2015/
     
    -------------------------------------------------------------------------
    Sponsored by: CINI - Italian National Inter-university Consortium for Informatics
    Sponsored by: Energy@home
    -------------------------------------------------------------------------
     
    Making cities and communities smarter is a very relevant goal, but also an extremely complex process that involves several actors and poses a number of challenges in different fields. In this context the role of ICT is essential and ubiquitous to all challenges and smart city related sectors.
     
    The workshop, at its first edition, is intended as an opportunity for people from academia, industries and public institutions to meet and define new collaborations in the perspective of next national and international project calls. It is not intended to disseminate theoretical scientific activities. Instead, its main goal is to present available innovative solutions and active research projects, as well as novel ideas for new project proposals.
     

    Submitted by root on Fri, 2015-06-19 09:45
  • Via al progetto RESOLUTE H2020 guidato dal DISIT DINFO

    Per aumentare la resilienza nel sistema di trasporto urbano delle città europee, e per renderle più smart.
     
    http://www.resolute-eu.org

    Migliorare la gestione del sistema di trasporto urbano nelle città europee in situazioni di crisi, frutto di calamità naturali e di altre emergenze, definire delle linee guida al riguardo e applicarle in fase sperimentale nei centri di Firenze e Atene. Questo l’obiettivo del progetto triennale europeo Resolute (RESilience management guidelines and Operationalization applied to Urban Transport Environment), che vede come capofila il Dipartimento di Ingegneria dell’Informazione (DINFO) dell’Ateneo fiorentino con il laboratorio DISIT, e che ha preso ufficialmente il via oggi (kick off). Resolute è stato finanziato con 3,8 milioni di euro dalla Commissione Europea nell’ambito del programma quadro per la ricerca e l’innovazione Horizon 2020.

    “Il tema della resilienza in relazione ai sistemi di trasporti rappresenta una priorità nell’agenda politica europea – spiega Paolo Nesi, ordinario di Sistemi di distribuiti e direttore del laboratorio DISIT (Distributed Systems and Internet Technology Lab) – questo perché la circolazione di persone, mezzi e informazioni ha un valore fondamentale per ogni attività socio economica. Le reti di comunicazione sono inoltre un fattore sensibile per risolvere emergenze e criticità”.
     
    Il progetto prevede lo studio, l’analisi e la valutazione dello stato dell’arte in materia di resilienza, come base da cui poter ricavare dei modelli e delle simulazioni che possano prevenire ed essere più pronti alle condizioni critiche, accrescere l’efficienza operativa delle operazioni dei soccorsi, ottimizzare l'assegnazione e l'utilizzazione delle risorse disponibili, riducendo al minimo incidenti, infortuni e danni ecologici.
     
    “Attualmente i processi decisionali fanno riferimento a schemi ancora troppo rigidi – prosegue Nesi – che non tengono conto di variabili fondamentali, o che non riescono a tenere conto di tutte le variabili. Anche grazie l’utilizzo di Big Data potremo perfezionare invece dei modelli che considerino se, per esempio, l’emergenza avviene di giorno o di notte, se ci sono eventi di grande richiamo pubblico o se le scuole sono aperte o chiuse, fornendo così ulteriori elementi su come ci si debba comportare. Il progetto si fonda su soluzioni Smart City e BigData come Km4City presentato al Firenze Open Data Day in Febbraio 2015, da Comune, Regione e Università di Firenze”.
    Il modello operativo che sarà messo in piedi  grazie al lavoro svolto in passato su soluzioni Smart City e BigData fondate sul modello Km4City che DISIT Lab ha definito e messo in opera da tempo con dati aperti e privati in collaborazione con il Comune di Firenze, Regione e LAMMA (in progetti come Sii-Mobility) e che è stato ha mostrato al Firenze Open Data Day nel Febbraio 2015, e sono state presentate anche al Forum PA alla fine di Maggio a Roma. Si aggiungono a queste competenze anche altre competenze essenziali della nostra Università come quelle del  gruppo di ricerca del Prof. Nicola Casagli del Dipartimento di Scienze della Terra sulla valutazione del rischio e delle criticità, e del gruppo della Prof.ssa Cristina Martelli del Dipartimento Statistica Informatica Applicazioni per i sistemi informativi e i modelli statistici e probabilistici.
     
    Gli ultimi mesi del progetto prevedono una sperimentazione delle linee guida nelle città di Firenze e Atene. In particolare, nel capoluogo fiorentino, le aree interessate sono quelle coinvolte dall’alluvione del ’66, il centro con particolare riguardo ai tratti percorsi dalla tramvia, e la zona di Piazzale Michelangelo, soggetta a numerose frane. Il comune di Firenze porta in dote la sua esperienza derivante dai progetti avviati negli anni passati, a partire dal Supervisore del Traffico, dalle attività relative alla Centrale di Controllo della Mobilità, all’esperienza di apertura di dati sugli Open Data, fino alle iniziative di “gioco educativo” già avviate dalla Protezione Civile negli scorsi mesi.
     
    Partner del progetto internazionale RESOLUTE sono l’Università di Firenze con il DISIT lab come coordinatore (del Dipartimento di Ingegneria Informatica), il Dipartimento Statistica Informatica Applicazioni, il Dipartimento di Scienze della Terra, Thales, SWARCO, AttikoMetro e CERTH dalla Grecia, Comune di Firenze, Consorzio Milano Ricerche, ADI-ISG dal Portogallo, Fraunhofer  Institute dalla Germania, e HUMANIST dalla Francia.
     

    Submitted by root on Sat, 2015-06-13 20:48
  • DISIT SmartDS, Smart Decision System: Advanced System Thinking, Decision Support System

    The SmartDS (Smart Decision System) of DISIT is an Advanced System Thinking solution for Decision Support System, DSS, on smart city problems and data. SmartDS is a tool presently in trial that allows you to model decision processes by using an Advances SystemThinking formalism defining weights on branches and value of the Italian Flags probabilities on processes, etc. (the application of verification and validation algorithms on data are also provided).
    The SmartDS solutions has been designed to work on defining and improving DSS models in a collaborative manner and thus to create several DSS models on the data and processes of the city, via workshops, experts interview, and also direct access to Km4City data (http://servicemap.disit.org for the Florence area data). You can start by creating a decision model and using it in a given context adding data and positions etc.. Then, you can clone/copy the model or the instances of processes in another location and context, etc. Therefore, SmartDS solution allows shortening the time to make and activate decision processes, supporting and helping Decision Makers in making their job, faster and better.
    Different Decision Makers can share models and solutions, but also monitor the results and the assessments.

    the Access can be from
    http://smartds.disit.org

    The solution is provided as a free access tool, while as a Guest user you have limited capabilities. A free registration can be also performed allowing you to create, clone, manipulate some Advanced System Thinking graphs. If you need more capabilities/rights or to you need to connect your smartcity database to the processes, it can be done, please ask to: info@disit.org



     

    Submitted by root on Sun, 2015-06-07 09:58
  • Graph Databases Lifecycle Methodology and Tool, RDF building, indexing and versioning

    Graph databases are taking place in many different applications: smart city, smart cloud, smart education, etc. In most cases, the applications imply the creation of ontologies and the integration of a large set of knowledge to build a knowledge base as an RDF KB store, with ontologies, static data, historical data and real time data. Most of the RDF stores are endowed of inferential engines that materialize some knowledge as triples during indexing or querying. In these cases, the delete of concepts may imply the removal and change of many triples, especially if the triples are those modeling the ontological part of the knowledge base, or are referred by many other concepts. For these solutions, the graph database versioning feature is not provided at level of the RDF stores tool, and it is quite complex and time consuming to be addressed as black box approach. In most cases the indexing is time consuming process, and the rebuilding of the KB may imply manually edited long scripts that are error prone. Therefore, in order to solve these kinds of problems, a lifecycle methodology and a tool supporting versioning of indexes for RDF KB store is proposed. The solution proposed has been developed on the basis of a number of knowledge oriented projects as Sii-Mobility (smart city), RESOLUTE (smart city risk assessment), ICARO (smart cloud). Results are reported in terms of time saving and reliability.


    Figure 1.   RDF Index Buidling Monitor
     

    For the RDF Index generation the RDF Index Manager produces a script according to the index descriptor and the RDF store target. The script is structured in the following steps: (i) setup of script, (ii) initialization of RDF store, (iii) bulk uploading of triples into the store, (iv) RDF store finalization, (v) create eventual additional indexes as textual indexes, geographical indexes that need additional database commands, and (vi) update index building status. In most cases, the RDF store rebuilt by indexing is time consuming, and may imply manually edited long scripts that are error prone. In order to solve this kind of problem, in this paper, a lifecycle methodology and our RIM tool for RDF KB store versioning is proposed. The results have shown that saving time up to the  95% depending on the number of triples, files and cases to be indexed.
     

    Submitted by root on Sun, 2015-06-07 09:57