Browsing by Author "Pantano, Pietro"
Now showing 1 - 20 of 76
- Results Per Page
- Sort Options
Item <> Defect-Centric analysis of the channel hot carrier degradation(2016-02-02) Pròcel-Moya, Luis-Miguel; Pantano, Pietro; Crupi, FeliceDurante l'ultimo decennio, il channel hot carrier (CHC) e stato considerato uno dei pi u importanti meccanismi di degrado della moderna tecnologia CMOS. La degradazione CHC si veri- ca quando un voltaggio superiore a quello di saturazione viene applicato sul terminale di drain e, contemporaneamente, un voltaggio superiore alla tensione di soglia (VTH) viene applicato sul terminale di gate. Nel presente lavoro, abbiamo utilizzato la cosiddetta defect-centric distribution (DCD) per spiegare e descrivere il meccanismo di degradazione CHC. Il DCD si basa su due presupposti: il VTH prodotto da una singola carica segue una distribuzione esponenziale (valore medio ) e il numero to- tale di difetti segue la distribuzione di Poisson (valore medio Nt). La combinazione di questi due presupposti da come risultato la DCD. Negli ultimi anni, la distribuzione DCD e stata usata per descrivere e spiegare la bias temperature instability (BTI) ed e in grado di predirre le code estreme della distribuzione VTH no a 4 . Il vantaggio di usare il DCD e che i suoi primi e secondi momenti sono direttamente correlati ai parametri sici e Nt. Nel presente lavoro, e stato dimostrato che il DCD e anche in grado di descrivere e spiegare il degrado della distribuzione VTH no a 3 . E stata studiata la dipendenza dei parametri de ect-centric, e Nt, in relazione alla geometria del dispos- itivo. E stato dimostrato che e inversamente proporzionale all'area del dispositivo come in la degradazione BTI. Inoltre, il valore previsto della distribuzione VTH (< VTH >) si incre- menta fortemente quando la lunghezza di canale (L) diminuisce e si incrementa debolmente con il decremento della larghezza del dispositivo (W). In la degradazione BTI, si riporta che non vi e alcuna dipendenza tra < VTH > ed L. Pertanto, la forte dipendenza trovata e da atribuire alla degradazione CHC. Si e anche studiata la dipendenza della temperatura (T) dei parametri defect-centric e abbiamo trovato che non dipende da T, al contrario degli esperimenti BTI, dove invece Nt aumenta con T, fatto che si spiega con l'attivazione del meccanismo di dispersione elettrone-elettrone. Inoltre, abbiamo estratto una energia di attivazione di 56meV per Nt. Finalmente, abbi- amo usato dispositivi matching-pair con la nalit a di studiare la variabilit a tempo zero e la variabilit a dipendente dal tempo. E stato dimostrato che il tempo di stress e la tensione di stress applicati sul terminale di drain non in uenzano la variabilit a.Item Applicazione dei big data nel turismo, marketing ed education(Università della Calabria, 2020-03-18) Giglio, Simona; Critelli, Salvatore; Pantano, PietroIl mondo è attualmente inondato da dati e l’avanzare delle tecnologie digitali amplifica questo fenomeno in modo esponenziale. Tale fenomeno viene etichettato con il concetto di Big Data ovvero le tracce digitali che le nostre attività quotidiane lasciano per effetto dell’uso massiccio dei sistemi ICT (Information Communication Technologies). I Big Data sono diventati il nuovo microscopio che rende “misurabile” la società. Per tali ragioni, la ricerca è incentrata sull’analisi dei Big data, estratti dai social media, da indagini online, da piattaforme di recensioni e da database, attraverso l’applicazione di tecniche e strumenti sviluppati nell’ambito dell’Intelligenza Artificiale. Algoritmi di machine learning, analisi semantica ed analisi statistica sono stati utilizzati per estrarre, dai Big Data, informazione sotto forma di “conoscenza” e “valore”, dimostrando come dati di grandi dimensioni possano fungere da ricca fonte di informazione, da un lato, per comprendere il comportamento dell’utente, parte integrante di una società complessa (conoscenza), e dall’altro, per sostenere i processi decisionali e i servizi forniti agli utenti/consumatori (valore). Il lavoro si caratterizza per un approccio multidisciplinare tra settori differenti quali le scienze sociali, le scienze statistiche e l’informatica. Questo ha permesso di fondare la ricerca sui Big Data nella teoria, e fornire un efficace recupero e analisi dei dati nella pratica. Le tecniche di machine learning sono state applicate per (i) il riconoscimento delle immagini, (ii) per la creazione di cluster, (iii) per l’analisi del testo (sentiment analysis) e (iv) per la profilazione di classi di utenti. Per il riconoscimento delle immagini l’approccio ha richiamato le reti neurali artificiali (deep artificial neural networks), algoritmi e sistemi computazionali ispirati al cervello umano utilizzando le potenzialità del programma Wolfram Mathematica e la disponibilità di dati estratti da social network quali Flickr, Twitter, Instagram ed altre piattaforme come TripAdvisor. Gli strumenti utilizzati nella ricerca hanno permesso di indagare e di rilevare in modo oggettivo dall’analisi di immagini e di testi condivisi sul web, alcuni comportamenti cognitivi degli utenti/consumatori alla base delle loro scelte nonché l’attrattività di una destinazione turistica e la qualità dell’esperienza dell’utente. Lo studio del significato delle parole nel testo ha aperto la strada al web semantico che permette ad un utente di acquisire informazioni approfondite durante una ricerca attraverso un sistema formato da una rete di relazioni e connessioni tra documenti. Partendo dalle ricerche di Ogden e Richards sullo studio del significato e di Jakobson che studiò i processi comunicativi, si è cercato di strutturare e sistematizzare un processo che riflette un atto comunicativo ed informativo tale che un simbolo (immagine) attraverso l’applicazione di un significante (machine learning che si sostituisce al processo mentale proprio dell’uomo) permettesse l’esplicitazione di un referente (oggetto\etichetta) che opportunatamente porta alla trasmissione di un messaggio sotto forma di conoscenza. Il tutto coordinato da un sistema in grado di coniugare fattori differenti in un’ottica interdisciplinare dove l’analisi dei dati combacia perfettamente con la linguistica. Attingendo da studi precedenti, i risultati raggiunti dimostrano che gli algoritmi di analisi dei Big Data quali l’apprendimento automatico contribuiscono da un lato alla comprensione sull’esperienza dell’utente verso un luogo, una destinazione; d’altra parte, la loro analisi fornisce una conoscenza sistematica delle valutazioni dei consumatori su un determinato prodotto o servizio e verso lo sviluppo di una sorta di “intelligenza sociale”. Inoltre i risultati della ricerca propongono come, un approccio più sofisticato al monitoraggio dei social media nel contesto turistico e nel marketing, nonché nel settore dell’education, possa contribuire a migliorare le decisioni strategiche e le politiche operative degli stakeholder nonché ad avere una visione psicologica sugli atteggiamenti e sul comportamento di un ampio spettro di utenti.Item Approccio metodologico per lo studio di malte ed intonaci archeologici del Mediterraneo(2013-11-04) De Luca, Raffaella; Pantano, Pietro; Crisci, Gino Mirocle; Miriello, DomenicoItem Approccio multidisciplinare applicato allo studio delle interazioni tra nanoparticelle e substrati lapidei di diversa natura finalizzato alla conservazione di monumenti di interesse storico-artistico(2013-11-04) Rovella, Natalia; Pantano, Pietro; Crisci, Gino Mirocle; La Russa, Mauro FrancescoItem Aspetti genetici dell'evoluzione linguistica nelle popolazioni umane: un'analisi comparativa e interdisciplinare(2017-07-12) Vigna, Mara; Pantano, Pietro; Passarino, Giuseppe; Dato, SerenaItem Background subtraction for moving object detection(2017-02-13) Guachi Guachi, Lorena De Los Angeles; Pantano, Pietro; Cocorullo, Giuseppe; Perri, Stefania; Corsonello, PasqualeBackground Subtraction è una tecnica che si occupa di separare dei cornice di ingresso in significativi oggetti in movimento (foreground) con i rispettivi confini dei (background) oggetti statici che rimangono quiescente per un lungo periodo di tempo per ulteriori analisi. Questo lavora principalmente con telecamere fisse focalizzati sul migliorare la qualità della raccolta di dati al fine di "comprendere le immagini". Questa tecnica per il rilevamento di oggetti in movimento ha diffuse applicazioni nel sistema di visione artificiale con le moderne tecnologie ad alta velocità, insieme con la progressivamente crescente capacità del computer, che fornisce un’ampia gamma di soluzioni reali ed efficienti per la raccolta di informazioni attraverso l’immagine/video come sequenza di ingresso. Un accurato algoritmo per Background Subtraction deve gestire sfide come jitter fotocamera, automatiche regolazioni della fotocamera, i cambiamenti di illuminazione, il bootstrapping, camuffamento, apertura foreground, gli oggetti che vengono a fermarsi e muoversi di nuovo, background dinamici, ombre, scena con diversi oggetti e notte rumorosa. Questa tesi è focalizzata sullo studio della tecnica di Background Subtraction attraverso una panoramica delle sue applicazioni, le sfide, passi e diversi algoritmi che sono stati trovati in letteratura, al fine di proporre approcci efficaci per Background Subtraction per alto performance su applicazioni in tempo reale. Gli approcci proposti hanno consentito indagini di varie rappresentazioni utilizzati per modellare il background e le tecniche considerate per la regolazione dei cambiamenti ambientali, questo ha fornito capacità di vari combinazioni di colori invarianti per segmentare il foreground e anche per eseguire una valutazione comparativa delle versioni ottimizzate del Gaussian Mixture Model e il multimodale Background Subtraction che sono approcci con alte prestazioni per la segmentazione in tempo reale. Deep Learning è stato anche studiato attraverso l’uso di architettura auto-encoder per Background SubtractionItem Caratterizzazione idrogeochimica, isotopica e geologica delle aree termali della Calabria Settentrionale(2014-11-26) Vespasiano, Giovanni; Pantano, Pietro; Apollaro, Carmine; Muto, Francesco; De Rose, RossanaItem Charged-particle distributions and material measurements in ps = 13 TeV pp collisions with the ATLAS Inner Detector(2017-07-14) Cairo, Valentina Maria Martina; Pantano, Pietro; Schioppa, Marco; Dell'Acqua, AndreaThe Run 2 of the Large Hadron Collider, which began in Spring 2015, offers new challenges to the Experiments with its unprecedented energy scale and high luminosity regime. To cope with the new experimental conditions, the ATLAS Experiment was upgraded during the first long shutdown of the collider, in the period 2013-2014. The most relevant change which occurred in the ATLAS Inner Detector was the installation of a fourth pixel layer, the Insertable B-Layer, at a radius of 33 mm together with a new thinner beam pipe. The Pixel Services, located between the Pixel and SCT detectors, were also modified. Owing to the radically modified ID layout, many aspects of the track reconstruction programs had to be re-optimized. In this thesis, the improvements to the tracking algorithms and the studies of the material distribution in the Inner Detector are described in detail, together with the improvements introduced in the geometry model description in simulation as well as the re-evaluation and the reduction of the systematic uncertainty on the estimate of the track reconstruction efficiency. The results of these studies were applied to the measurement of Charged-Particle Multiplicity in proton–proton collisions at a centre-of-mass energy of 13 TeV. The chargedparticle multiplicity, its dependence on transverse momentum and pseudorapidity and the dependence of the mean transverse momentum on the charged-particle multiplicity are presented for various fiducial phase spaces. The measurements are corrected for detector effects, presented as particle-level distributions and are compared to the predictions of different Monte Carlo event generators. New sets of recommended performance figures along with the related systematic uncertainties were also derived for several aspects of the ATLAS tracking, such as track reconstruction efficiency, fake rate and impact parameter resolution. These recommendations provide information on appropriate working points, i.e. track selection criteria with wellunderstood performance. They apply to physics analyses using Inner Detector tracks in Run 2 data and are important inputs for other objects based on tracks, such as jets. A simulation-based method which uses the tracking recommendations to calibrate light-jets mis-tagged as b-jets it is also presented in the context of the measurement of the crosssection of the W-boson produced in association with b-jets at 13 TeV, together with an overview of the inclusiveW-boson cross-section analysisItem Charged-particle distributions and material measurements in ps = 13 TeV pp collisions with the ATLAS Inner Detector(2017-07-14) Cairo, Valentina Maria Martina; Pantano, Pietro; Dell'Acqua, Andrea; Schioppa, MarcoThe Run 2 of the Large Hadron Collider, which began in Spring 2015, offers new challenges to the Experiments with its unprecedented energy scale and high luminosity regime. To cope with the new experimental conditions, the ATLAS Experiment was upgraded during the first long shutdown of the collider, in the period 2013-2014. The most relevant change which occurred in the ATLAS Inner Detector was the installation of a fourth pixel layer, the Insertable B-Layer, at a radius of 33 mm together with a new thinner beam pipe. The Pixel Services, located between the Pixel and SCT detectors, were also modified. Owing to the radically modified ID layout, many aspects of the track reconstruction programs had to be re-optimized. In this thesis, the improvements to the tracking algorithms and the studies of the material distribution in the Inner Detector are described in detail, together with the improvements introduced in the geometry model description in simulation as well as the re-evaluation and the reduction of the systematic uncertainty on the estimate of the track reconstruction efficiency. The results of these studies were applied to the measurement of Charged-Particle Multiplicity in proton–proton collisions at a centre-of-mass energy of 13 TeV. The chargedparticle multiplicity, its dependence on transverse momentum and pseudorapidity and the dependence of the mean transverse momentum on the charged-particle multiplicity are presented for various fiducial phase spaces. The measurements are corrected for detector effects, presented as particle-level distributions and are compared to the predictions of different Monte Carlo event generators. New sets of recommended performance figures along with the related systematic uncertainties were also derived for several aspects of the ATLAS tracking, such as track reconstruction efficiency, fake rate and impact parameter resolution. These recommendations provide information on appropriate working points, i.e. track selection criteria with wellunderstood performance. They apply to physics analyses using Inner Detector tracks in Run 2 data and are important inputs for other objects based on tracks, such as jets. A simulation-based method which uses the tracking recommendations to calibrate light-jets mis-tagged as b-jets it is also presented in the context of the measurement of the crosssection of the W-boson produced in association with b-jets at 13 TeV, together with an overview of the inclusiveW-boson cross-section analysis.Item Charged-particle distributions and material measurements in ps = 13 TeV pp collisions with the ATLAS Inner Detector(2017-07-14) Cairo, Valentina Maria Martina; Pantano, Pietro; Dell'Acqua, Andrea; Schioppa, MarcoThe Run 2 of the Large Hadron Collider, which began in Spring 2015, offers new challenges to the Experiments with its unprecedented energy scale and high luminosity regime. To cope with the new experimental conditions, the ATLAS Experiment was upgraded during the first long shutdown of the collider, in the period 2013-2014. The most relevant change which occurred in the ATLAS Inner Detector was the installation of a fourth pixel layer, the Insertable B-Layer, at a radius of 33 mm together with a new thinner beam pipe. The Pixel Services, located between the Pixel and SCT detectors, were also modified. Owing to the radically modified ID layout, many aspects of the track reconstruction programs had to be re-optimized. In this thesis, the improvements to the tracking algorithms and the studies of the material distribution in the Inner Detector are described in detail, together with the improvements introduced in the geometry model description in simulation as well as the re-evaluation and the reduction of the systematic uncertainty on the estimate of the track reconstruction efficiency. The results of these studies were applied to the measurement of Charged-Particle Multiplicity in proton–proton collisions at a centre-of-mass energy of 13 TeV. The chargedparticle multiplicity, its dependence on transverse momentum and pseudorapidity and the dependence of the mean transverse momentum on the charged-particle multiplicity are presented for various fiducial phase spaces. The measurements are corrected for detector effects, presented as particle-level distributions and are compared to the predictions of different Monte Carlo event generators. New sets of recommended performance figures along with the related systematic uncertainties were also derived for several aspects of the ATLAS tracking, such as track reconstruction efficiency, fake rate and impact parameter resolution. These recommendations provide information on appropriate working points, i.e. track selection criteria with wellunderstood performance. They apply to physics analyses using Inner Detector tracks in Run 2 data and are important inputs for other objects based on tracks, such as jets. A simulation-based method which uses the tracking recommendations to calibrate light-jets mis-tagged as b-jets it is also presented in the context of the measurement of the crosssection of the W-boson produced in association with b-jets at 13 TeV, together with an overview of the inclusiveW-boson cross-section analysis.Item Charged-particle distributions and material measurements in ps = 13 TeV pp collisions with the ATLAS Inner Detector(2017-07-14) Cairo, Valentina Maria Martina; Pantano, Pietro; Dell'Acqua, Andrea; Schioppa, MarcoThe Run 2 of the Large Hadron Collider, which began in Spring 2015, offers new challenges to the Experiments with its unprecedented energy scale and high luminosity regime. To cope with the new experimental conditions, the ATLAS Experiment was upgraded during the first long shutdown of the collider, in the period 2013-2014. The most relevant change which occurred in the ATLAS Inner Detector was the installation of a fourth pixel layer, the Insertable B-Layer, at a radius of 33 mm together with a new thinner beam pipe. The Pixel Services, located between the Pixel and SCT detectors, were also modified. Owing to the radically modified ID layout, many aspects of the track reconstruction programs had to be re-optimized. In this thesis, the improvements to the tracking algorithms and the studies of the material distribution in the Inner Detector are described in detail, together with the improvements introduced in the geometry model description in simulation as well as the re-evaluation and the reduction of the systematic uncertainty on the estimate of the track reconstruction efficiency. The results of these studies were applied to the measurement of Charged-Particle Multiplicity in proton–proton collisions at a centre-of-mass energy of 13 TeV. The chargedparticle multiplicity, its dependence on transverse momentum and pseudorapidity and the dependence of the mean transverse momentum on the charged-particle multiplicity are presented for various fiducial phase spaces. The measurements are corrected for detector effects, presented as particle-level distributions and are compared to the predictions of different Monte Carlo event generators. New sets of recommended performance figures along with the related systematic uncertainties were also derived for several aspects of the ATLAS tracking, such as track reconstruction efficiency, fake rate and impact parameter resolution. These recommendations provide information on appropriate working points, i.e. track selection criteria with wellunderstood performance. They apply to physics analyses using Inner Detector tracks in Run 2 data and are important inputs for other objects based on tracks, such as jets. A simulation-based method which uses the tracking recommendations to calibrate light-jets mis-tagged as b-jets it is also presented in the context of the measurement of the crosssection of the W-boson produced in association with b-jets at 13 TeV, together with an overview of the inclusiveW-boson cross-section analysis.Item Circuit and architecture solutions for the low-voltage, low-power domain(2016-02-02) Albano, Domenico; Pantano, Pietro; Crupi, FeliceItem Complessità e musica(2009) Bilotta, Eleonora; Pantano, Pietro; Rizzuti, CostantinoItem Complessità e pubblica amministrazione: la pianificazione strategica e il sistema di misurazione e valutazione della performance: il caso della Agenzia delle entrate(Università della Calabria, 2016-11-28) Senatore, Ileana; Pantano, Pietro; De Pietro, OrlandoItem Costruzione di un database GIS 3D per un approccio multidisciplinare alla diagnostica di Santa Sofia (Instanbul - Turchia)(2016-03-04) Murat, Cura; Pantano, Pietro; Crisci, Gino Mirocle; Barba, Luis; Miriello, DomenicoItem Design of interdigitated back-contact solar cells by means of TCAD numerical simulations(2017-02-13) Maccaronio, Vincenzo; Pantano, Pietro; Cocorullo, Giuseppe; Crupi, FeliceLa promessa dell’energia solare come forma di energia principale è sempre più concreta, ma il nodo cruciale rimane il costo per Watt, che deve essere sempre di più avvicinato o finanche ulteriormente ridotto rispetto a quello delle reti di distribuzione energetiche esistenti. Un lavoro di ottimizzazione in termini di design e parametri di fabbricazione è quindi fondamentale per raggiungere questo obiettivo. Il silicio cristallino è il materiale maggiormente diffuso nell’industria fotovoltaica, per via di diversi fattori, tra cui l’ottimo rapporto costo/prestazioni e la vasta presenza di macchinari per la sua lavorazione, dovute al suo impiego pluridecennale nell’industria microelettronica. Fra le diverse tipologie di celle esistenti è stata scelta un’architettura che presenta entrambi i contatti metallici sul retro, chiamata per questo interdigitated back-contact (iBC). Questo particolare design offre numerosi vantaggi in termini di efficienza massima, costo di produzione ed estetica del pannello, in relazione alle celle convenzionali. Difatti, al momento attuale le maggiori efficienze in celle monogiunzione, sia a livello di laboratorio che di moduli commerciali, sono state ottenute utilizzando questa struttura, sulla quale un’approfondita attività di ricerca può quindi dimostrarsi di notevole interesse. Per il processo di analisi è stato scelto un approccio numerico, tramite l’uso del simulatore di dispositivi TCAD Sentaurus di Synopsys. L’utilizzo di simulazioni offre numerosi punti a favore rispetto all’ottimizzazione per mezzo di step ripetuti di fabbricazione. In primis, un vantaggio in termini di costi, non necessitando di macchinari, materiali e camere pulite. Inoltre un’analisi numerica rende possibile individuare ed evidenziare punti o cause specifiche di perdite o problemi di progettazione. La problematica maggiore di questo approccio risiede nella necessità di garantire l’affidabilità delle simulazioni e ciò è stato ottenuto mediante l’applicazione dello stato dell’arte di tutti i modelli fisici specifici coinvolti nel funzionamento di questo tipo di celle. La tematica di ricerca affrontata è stata quindi la progettazione di celle solari al silicio con contatti interdigitati sul retro tramite l’uso di simulazioni numeriche. Il lavoro di ottimizzazione è stato realizzato investigando uno spazio di parametri di fabbricazione molto vasto e ottenendo informazioni sui trend delle prestazioni al variare degli stessi. Nel primo capitolo è stata illustrata la fisica e i principi di funzionamento di una cella solare, iniziando dall’assorbimento della luce, passando alla sua conversione in cariche elettriche, per finire con la loro raccolta per generare potenza. I meccanismi di ricombinazione e le altre cause di perdite sono stati presentati ed esaminati. Nel secondo capitolo è stata dettagliata l’architettura di una cella solare, evidenziando le diverse regioni e presentando la struttura back-contact. Il terzo capitolo è stato dedicato alla spiegazione delle strategie di simulazione applicate in questo lavoro, con la definizione dei modelli fisici applicati e calibrati per assicurare l’accuratezza richiesta. Nei capitoli quattro e cinque sono stati presentati i risultati delle simulazioni effettuate, realizzate variando le caratteristiche geometriche delle diverse regioni della cella e i profili di drogaggio. Sono stati ottenuti i trend di comportamento relativi ai singoli parametri che, nel caso relativo ai drogaggi, permettono di affermare che per ogni regione l’andamento dell’efficienza ha una forma a campana, che presenta un ottimo di drogaggio relativo in un punto intermedio. Questo comportamento è dovuto, per bassi valori di drogaggio, all’effetto della ricombinazione sul contatto per BSF ed emettitore e della ricombinazione superficiale per l’FSF. Per alti valori di drogaggio, la degradazione dell’efficienza dipende dall’effetto della ricombinazione Auger per BSF ed emettitore e da quella superficiale per l’FSF. Per quanto riguarda i parametri geometrici, le analisi svolte evidenziano che il gap tra emettitore e BSF deve essere quanto più piccolo possibile, dato che all’aumentare della sua dimensione aumentano le perdite per effetto resistivo e di ricombinazione. È stato determinato che il valore ottimale di emitter coverage non è assoluto, ma dipende dalla resistività del bulk e dai drogaggi delle altre regioni, os cillando tra l’80% e il 90%. Per quanto riguarda il pitch ottimale, cioè la distanza tra i contatti, è stato determinato che maggiori efficenze corrispondono a valori minori, principalmente perché all’aumentare della distanza aumentano le resistenze parassite. Infine si è evidenziato che l’aggiunta di un secondo contatto sull’emettitore, equispaziato dal centro della regione, migliora l’efficienza totale poiché riduce le perdite resistive, soprattutto nel caso di celle con emettitori lunghi.Item Design og high-efficiency crystalline silicon solar cells based on numerical simulation(2017-02-13) Procel Moya, Paul Alejandro; Pantano, Pietro; Cocorullo, Giuseppe; Crupi, FeliceL’utilizzo di strumenti di simulazione è diventato un approccio chiave nel processo di progettazione di celle solari ad alta efficienza. In questo lavoro di tesi, strutture e tecnologie relative a celle solari avanzate in silicio cristallino sono state discusse e analizzate per mezzo di simulazioni numeriche. In particolare, i parametri critici sono stati evidenziati fornendo linee guida per ottenere la massima efficienza in relazione ai vincoli tecnologici. Nel Capitolo 1 è stata presentata l’evoluzione delle celle in c-Si effettuata con l’obiettivo di avvicinarsi il più possibile agli effettivi limiti di efficienza.. Nel Capitolo 2, è stato descritto lo stato dell’arte generale relativo alle celle in silicio cristallino, focalizzandosi sulla loro implementazione in simulazioni numeriche. Di seguito, nel Capitolo 3, è stato presentato uno studio teorico dell’impatto dei parametri di progettazione sulle principali figure di merito di celle solari IBC in c-Si, basato su simulazioni elettro-ottiche. Lo studio è stato condotto analizzando i principali parametri e identificando i meccanismi dominanti che migliorano o degradano l’efficienza di conversione. In particolare, è stato dimostrato che le concentrazioni di drogaggio e le geometrie della faccia inferiore ottimali sono il risultato di compromessi tra meccanismi di ricombinazione intrinseci ed estrinseci, nel caso dei drogaggi, e tra maccanismi di trasporto e ricombinazione, nel caso delle geometrie posteriori. Successivamente, l’approccio presentato nel Capitolo 2 è stato ampliato nel Capitolo 4, in cui è stato illustrato un innovativo modello di simulazione per IBC. La simulazione elettro-ottica è stata validata e impiegata per lo studio della regione frontale della cella back-contact. La nuova metodologia di simulazione modella in dettaglio il comportamento ottico e i meccanismi di passivazione sulla texturizzazione frontale. I risultati ottenuti hanno mostrato che un’interfaccia frontale texturizzata con piramidi irregolari e un FSF ottimale sono necessari per minimizzare sia le perdite ottiche che per ricombinazione. Analogamente, è stato evidenziato che le perdite per ricombinazione sono influenzate in misura maggiore dal profilo di drogaggio che dalla rugosità delle superficie. In relazione all’ottimizzazione del regione inferiore è stato ottenuto un miglioramento del 1% nell’efficienza assoluta e, in conseguenza di questo, migliorando sia la qualità dell’emettitore che della base in silicio cristallino, è stata presentata una cella solare con efficienza del 22.84%. Nel Capitolo 5, il modello di simulazione è stato usato per analizzare parametri critici di progettazione nell’applicazione di contatti passivanti in un cella solare convenzionale. I risultati delle simulazioni hanno dimostrato che i parametri principali che limitano il meccanismo di trasporto sono l’energia di barriera, le masse di tunneling di elettroni e lacune e lo spessore dell’ossido. Inoltre, è stato riscontrato che il comportamento del potenziale di built-in è correlato all’allineamento delle bande. Questo effetto fornisce la comprensione di come il silicio cristallino con drogaggio internamente diffuso supporta il trasporto per mezzo di tunneling attraverso lo strato di ossido. In accordo con le analisi svolte, sono state fornite delle indicazioni per la progettazione di contatti passivanti. In conclusione, in questo lavoro di tesi sono state fornite linee guide per il design di celle solari IBC e celle solari convenzionali con contatti passivanti, con lo scopo di favorire processi di fabbricazione di celle solari in silicio cristallino ad alta efficienza.Item Development of Tailored Hydrogel Composite Membranes for Application in Membrane Contactors(2017-07-11) Majidi Salehi, Shabnam; Pantano, Pietro; Curcio, Efrem; Di Profio, Gianluca; Fontananova, EnricaThis work was performed during the period from November 2013 to May 2015 in the Institute on Membrane Technology (ITM-CNR) at the University of Calabria (UNICAL), under supervision of Prof. Efrem Curcio, Dr. Gianluca Di Profio and Dr. Enrica Fontananova, from May 2015 to December 2015 at Universidade Nova de Lisboa (UNL), under supervision of Prof. Joao Crespo and from March 2016 to September 2016 at the University of Chemistry and Technology (ICT) Prague, under supervision of Dr. Eng. Vlastmil Fila. The main objective of this study was to design and develop tailored hydrogel composite membranes for application in membrane contactors, in particular, membrane distillation and membrane crystallization. Among various methods for membrane surface functionalization, surface photo-initiated graft polymerization technique (at UNICAL) and surface coating by incorporating nanoparticles (at UNL) were investigated to fabricate tailored hydrogel composite membranes In the first year at the University of Calabria, various hydrogel composite membranes were prepared by using photo-initiated polymerization method. The possibility of fine tuning the porosity and the chemical nature of hydrogels, were implemented with the preparation of composites containing diverse hydrogel components (monomer and cross-linker) and ratio among them. The selection of hydrogel components was based on the possibility to obtain homogeneous and stable composites by using specific polymeric porous membranes as supports. The resulting composite membranes were characterized by electron scanning microscopy, surface chemistry analysis, swelling degree, ion exchange capacity and water contact angle measurements Furthermore, virgin and hydrogel composite membranes were used in membrane distillation and crystallization experiments and the performance improvement was evaluated. As a result, higher water-transfer flux and enhanced ion rejection than traditional MD membranes was observed in MD treatment of saline solutions. When such HCMs used in membrane assisted crystallization of carbonate calcium (biomineralization), a wide range of crystal morphologies, most of them displaying a polycrystalline or mesocrystalline structure, was obtained in a great variety of experimental conditions. We demonstrated that this composite provides the opportunity to fine control the delivery of additives to the gel network through the porous structure of both support membrane and hydrogel layer, thus affecting crystallization kinetics, and crystal morphologies In the second year of the study at Universidade Nova de Lisboa, hydrogel composite membranes with tailored surface roughness and patterning were designed to examine the influence of the topography of such composite membranes on the growth of protein crystals. Iron oxide nanoparticles (NPs) were used as topographical designers providing a good control of membrane surface roughness and patterning. Surface morphology and topography of the prepared membranes were characterized using electron scanning microscopy, profilometry analysis and contact angle measurements. Finally, their performance was evaluated in the crystallization of Lysozyme used as a model protein and the effect of surface chemistry and topography on the heterogeneous nucleation of lysozyme crystals was investigated. We demonstrated that roughness influences crystallization, but we also show that excessive roughness may be deleterious, since it increases the number of crystals formed at the expenses of crystal size. Therefore, there is an optimum value of roughness for the formation of a low number of well-faced crystals with a larger size In the third year at the University of Chemistry and Technology Prague, the modeling of membrane crystallization was studied. The main goal of this work was to develop general model of membrane crystallization process. The development of this model involved the fundamental theories and models in membrane process and crystallization engineering, especially the models described the mass and heat transfers in membrane module and the crystal size distribution (CSD) determined by both nucleation and crystal growth processes based on the concept of the population balance equation. The experimental results of this study, allows to achieve new insight to fabricate and develop the novel hydrogel composite membranes with proper properties and novel functionality for application in membrane distillation and membrane crystallization processesItem Development of virtuual advanced learning environments(2016-02-02) Olmedo Vizueta, Diana Elizabeth; Pantano, Pietro; Bilotta, EleonoraThe fact that the humanity is living in the digital era is undeniable. In fact, the advancement of the technology and the interconnection of everyday devices has become the Virtual Learning Environments in a powerful alternative acquiring knowledge. This is possible through an infinite access to information and also a dynamic interaction among people around the world. The capacity of these environments to transmit immersion sensations motivates the users to perform useful activities. Consequently, the users occupy their time on strengthening skills while enhancing their intellectual and social development. The literature review about advanced 3D virtual environments has been a useful and fundamental starting point. This has allowed deepen on the potentialities and possible benefits of the relationship between education and new technologies such as the Internet, multimedia systems, augmented reality, intelligent tutoring, 3D immersion systems among others. Hence, the study of educational games, mobile learning applications, virtual museums and laboratories, from a theoretical point of view, has to be linked to modern learning fields like STEAM (Science, Technology, Engineering, Arts, and Mathematics) education and Special education as well. Based on the before mentioned approaches, an interactive Virtual Advanced Learning Environments (VALE) have been developed. It consists of different advanced 3D virtual scenarios devoted to the teaching of STEAM Education and Special Education fields. Inside these environments, several educational activities are performed in an entertaining way. These learning activities are carried out through virtual laboratories, interactive museums, games challenges, video-modelling activities and training/tests applications. In particular, the VALE for STEAM education includes three scenarios devoted to the Chaos Theory, Educational Robotics and Programming in Scratch. While the VALE for Special Education consists of two applications. The first one is aimed to enhance the Simple Social Skills, and the Social Communication Concepts in people with special needs. The second one is devoted to strengthen skills of Emotion Recognition also in people with special needs. All the activities available inside the VALE give to the users the opportunity of freely discover and learn interesting concepts and develop skills in a fun way while they develop knowledge. The results of the experimentation of the VALE have been satisfactory. In general, the participants showed efficient response during the development of the activities demonstrating an affinity with the knowledge learned. Furthermore, the developed applications for Special Education needs have proven to be useful in specific contexts such as emotion recognition. This has been demonstrated by assessments conducted with people with autism and mental retardationItem Dinamica di network complessi di oscillatori(2014-11) Chiaravalloti, Francesco; Pantano, Pietro