venerdì 17 novembre 2017

CICLO DI DEMING: Obiettivo--> il successo dell'utilizzatore

Il PDCA rappresenta l’approccio scientifico alla risoluzione dei problemi. E’ una metodologia di validità universale in quanto consente di affrontare in maniera rigorosa e sistematica qualsiasi attività. Il termine PDCA deriva dalle iniziali delle quattro fasi in cui è possibile suddividere il processo di problem solving, che hanno questo significato: P = PLAN = pianificare prima di iniziare => DIRE CIO’ CHE SI FA D = DO = fare ciò che si è deciso => FARE CIO’ CHE SI E’ DETTO C = CHECK = misurare i risultati => REGISTRARE CIO’ CHE SI E’ FATTO A = ACT = standardizzare e rendere procedura o ripetere un nuovo ciclo => MIGLIORAMENTO CONTINUO Dal punto di vista grafico il P.D.C.A. è rappresentato mediante un cerchio in movimento chiamato ruota di Deming. Il movimento sta a significare la dinamicità e la continuità del processo di applicazione.
CICLO    P D C A
    •  Individuare il problema (PLAN)
      1. Identificare e descrivere il problema da affrontare analizzandone gli aspetti principali. Motivare la scelta ossia il motivo per cui lo si affronta. Per descrivere bene il problema è necessario raccogliere i dati tramite osservazione e analisi. Bisogna utilizzare solo i dati e i fatti, non le opinioni, e devono essere verificati per validità e attendibilità. Poiché eseguire una raccolta dati di tutti gli elementi che identificano un fenomeno può risultare troppo costoso e lungo, è necessario raccogliere i dati solo su particolari campioni che devono essere comunque rappresentativi e significativi. Significatività: tutti i dati devono avere una consistenza numerica e possono essere stratificati in diversi modi per renderli significativi. Rappresentatività: i dati devono garantire una corretta rappresentazione del fenomeno.Tra gli strumenti più adatti vi sono il BRAINSTORMING, il DIAGRAMMA DI FLUSSO.
      2. Definire l’obiettivo di massima in modo chiaro, quantitativo e completo, quantificando i benefici ottenibili con il suo raggiungimento, come gli effetti economici, sia tangibili che intangibili. Devono essere definiti anche i tempi, gli indicatori e gli strumenti di controllo.
      3. Analizzare il problema ossia analizzare i dati che lo descrivono e individuare gli effetti negativi o da studiare, definendo la loro importanza e le priorità di intervento. Ogni azione di miglioramento deve essere basata su considerazioni oggettive, cioè sul risultato dell’elaborazione di datiche rappresentino nel modo più attendibile il fenomeno oggetto di studio.Un buon strumento per l’analisi dei dati è l’ISTOGRAMMA.
      4. Ricercare tutte le possibili cause, ossia sviluppare un quadro completo di tutte le cause del problema e individuare le cause più probabili (ipotesi), quindi verificarle con raccolte dati, elaborazioni, sperimentazioni, ecc. E’ necessario trovare un accordo sulle cause che stanno all’origine del problema e definire la “legge di priorità”, iterando il processo fino all’individuazione dimostrata delle reali cause. Gli strumenti più utilizzati per individuare le cause di un problema sono il DIAGRAMMA CAUSA EFFETTO, il BRAINSTORMING, il DIAGRAMMA DI CORRELAZIONE, il DIAGRAMMA DI PARETO.
      5. Progettare le azioni correttive, iniziando dalla ricerca e dall’analisi delle possibili azioni correttive ed individuare le azioni correttive più efficaci, quindi progettare le attività da eseguire, definendo modalità e tempi e infine definire i criteri di valutazione dei risultati.
    • Sperimentare (DO)Preparare gli interventi definendo tutto ciò che serve per attuarli. Addestrare le persone incaricate dell’attuazione delle azioni correttive. Applicare le azioni correttive e attuare le soluzioni programmate. Verificare la corretta applicazione delle azioni.
    • Confrontare i risultati (CHECK)Verificare che l’azione correttiva sia stata eseguita nei tempi previsti. Verificare i risultati delle azioni intraprese e confrontare i dati ottenuti con quelli della situazione di partenza. Confrontare i risultati ottenuti con gli obiettivi prefissati. Se si è raggiunto l’obiettivo definito, si può passare alla fase di Act, altrimenti è necessario ripetere un nuovo ciclo PDCA sullo stesso problema, analizzando criticamente le varie fasi del ciclo precedente per individuare le cause del non raggiungimento dell’obiettivo.
    • Standardizzare la soluzione (ACT)Rendere prassi comune la soluzione trovata (PROCEDURIZZARE) in modo da rendere consolidate e irreversibili le azioni correttive. E’ inoltre necessario effettuare un addestramento specifico e approfondito degli operatori e programmare delle verifiche della validità delle azioni correttive, stabilendo fin da subito modalità e tempi.
Eventualmente preparare una nuova fase di plan attivando un nuovo PDCA sullo stesso tema per un ulteriore miglioramento => attivazione del MIGLIORAMENTO CONTINUO.

Utilizzo sistematico del PDCA.

Il metodo PDCA può essere utilizzato per perseguire il miglioramento continuo, attivando i tre cicli descritti di seguito.
      1. CICLO DEL MANTENIMENTO E’ il ciclo che si inserisce a valle delle fasi PLAN e DO ed ha la finalità di verificare se quanto pianificato ed attuato continua a dare i risultati attesi. In caso di CHECK positivo la fase ACT consiste nel mantenere lo stato attuale e continuare a verificarne la rispondenza ai requisiti. In caso di CHECK negativo, invece è necessario riattivare il ciclo dell’azione correttiva.
      2. CICLO DELL’AZIONE CORRETTIVA Qualora l’esito del CHECK sia negativo, ossia i risultati ottenuti non siano quelli desiderati, si attiva il ciclo dell’azione correttiva per modificare la situazione. Il ciclo è caratterizzato da due componenti:
        • il rimedio, ossia l’azione immediata finalizzata a correggere gli effetti
        • la prevenzione, ossia l’azione pianificata finalizzata a rimuovere le cause.
        Quando il CHECK ritorna ad essere positivo, si attiva nuovamente il ciclo del mantenimento.
      3. CICLO DEL MIGLIORAMENTO Questo ciclo presuppone una corretta attuazione dei primi due cicli in quanto il miglioramento è tanto più efficace quanto più stabile è la situazione iniziale. Il ciclo di miglioramento si attiva quando, nonostante il ciclo di mantenimento indichi risultati positivi, è necessario che nascano nuove idee su come fare meglio, in modo più semplice, meno costoso, più veloce, più sicuro, ecc. E’ quindi necessario ripartire dalla fase PLAN in quanto occorre “progettare” nuove azioni per raggiungere nuovi obiettivi. Se dopo l’applicazione di queste azioni (fase DO) il CHECK da esito positivo, allora si torna al ciclo di mantenimento, altrimenti si attiva quello dell’azione correttiva.

Come realizzare un istogramma

L’istogramma è un diagramma a barre che consente di visualizzare la variabilità di un fenomeno ren­dendo più facilmente interpretabili i dati relativi. Se i fattori che influiscono sui processi (uomo, macchina, materiali, metodi, ecc.) fossero perfettamente costanti, i dati relativi all’output dei processi stessi avrebbero tutti lo stesso valore. In realtà ciò non accade mai, per cui è inevitabile avere una certa variabilità nei valori. L’utilizzo dell’istogramma è finalizzato allo studio di tali variabilità, attraverso l’analisi della forma della loro distribuzione, del valore medio e della dispersione. Permette, inoltre, di valutare l’entità degli eventuali scostamenti tra risultato atteso (specifiche) e quanto si è realmente ottenuto, fornendo indicazioni sulla tipologia delle possibili cause di tali scosta­menti. L’ istogramma è anche uno strumento fondamentale nelle attività di controllo dei processi. La costruzione dell’istogramma avviene secondo le seguenti fasi:
      1. Raccolta di N dati relativi al fenomeno in esame Xi = caratteristica dell’output di un processo
      2. Calcolo del campo di variazione R = X max – X min (valore max – valore min)/li>
      3. Determinazione del numero di classi K = N½
      4. Calcolo dell’ampiezza di classe h = R / K
      5. Calcolo dei limiti di classe classe 1 : ( X min ) / ( X min + h )
      6. Costruzione della tabella di frequenza
      7. Definizione degli assi cartesiani X = caratteristica Y = frequenza<
      8. Rappresentazione con barre dei dati riportati nella tabella di frequenza.

Come realizzare un diagramma causa effetto

Il diagramma CAUSA – EFFETTTO è una forma di rappresentazione logica e strutturata dei legami esi­stenti tra un effetto e le sue relative cause. Con il termine effetto si intende un qualunque problema si voglia analizzare, può quindi essere un tipo di difetto, una caratteristica qualitativa, un parametro di produttività ecc. La finalità di questo diagramma è la ricerca delle cause che determinano un problema, essendo questa la condizione indispensabile per la sua soluzione. Solo individuando le vere cause è possibile determinare le opportune azioni di miglioramento fina­lizzate alla loro eliminazione. Questo si inquadra nell’ottica di prevenzione dei problemi attraverso azioni sulle cause che li generano, anziché di correzione degli stessi, ottenuta con rimedi rivolti ad ot­timizzare gli effetti. L’applicazione del diagramma prevede 3 momenti distinti:
      1. Costruzione del diagramma Facendo riferimento ad un effetto specifico da analizzare, chiaramente definito, si individuano tutte le possibili cause che possono determinarlo. Tali cause possono essere strutturate in grandi famiglie, come ad esempio:
        • Metodo,
        • Macchine,
        • Manodopera,
        • Materiali,
        oppure per fasi del processo cui l’effetto si riferisce
      2. Selezione delle cause Tra tutte le possibili cause si selezionano quelle ritenute più influenti sull’effetto, questa valutazione si basa su dati storici o dati raccolti ad hoc e sull’esperienza delle persone.
      3. Verifica delle cause Si verifica, medianteraccolte dati e sperimentazioni appropriate, la reale influenza delle cause selezionate per individuare quelle prioritarie.

Come realizzare un diagramma di Pareto

Si rivela molto utile l’utilizzo del diagramma di Pareto poiché permette una rappresentazione gra­fica immediata ed efficace degli aspetti prioritari di un problema. In tal modo è possibile concentra­re le risorse disponibili su di essi, incrementando sia la probabilità di successo che l’entità stessa dei miglioramenti ottenibili. L’utilizzo del diagramma di Pareto è possibile in qualsiasi campo ed offre un valido supporto nella fase di pianificazione delle attività di miglioramento in quanto consente di stabilire quali aree af­frontare in relazione agli obiettivi prefissati. L’applicazione del diagramma prevede: Costruzione della tabella di frequenza Sulla base dei dati raccolti, relativi al problema in esame, si costruisce una tabella nella quale ven­gono riportate, in ordine decrescente, le varie voci di classificazione (CLASSI), le frequenze di accadi­mento corrispondenti (assolute e cumulate) e le percentuali di incidenza (assolute e cumulate). Le voci di scarsa rilevanza vengono invece raggruppate nella classe “Altri” al fine di rendere più evi­den­te l’individuazione della priorità. Costruzione del diagramma Si procede quindi a tracciare l’asse orizzontale, sul quale si riportano le diverse voci di classificazio­ne, e gli assi verticali, relativi alle frequenze di accadimento ed alle percentuali. Sulla base dei dati riportati in tabella, vengono quindi costruite, per ciascuna voce di classificazione, barre di uguale lunghezza e di altezza corrispondente ai valori assoluti e percentuali. Si traccia, inoltre, la cosiddetta curva cumulativa, che rappresenta la somma progressiva delle fre­quenze di accadimento e delle relative percentuali. Per l’interpretazione del diagramma di Pareto, in ottica di individuazione delle priorità di inter­vento, può essere opportuno costruire anche il diagramma per costi. Spesso, in­fatti, a pro­blematiche di modesta rilevanza numerica possono corrispondere elevati costi.

Sintesi del metodo PDCA

PLAN – INDIVIDUARE IL PROBLEMA
  • identificare il problema
  • raccogliere i dati
  • definire gli obiettivi
  • analizzare le cause
  • ipotizzare e definire le soluzioni
DO – SPERIMENTARE (TEST)
  • applicare le azioni correttive
  • verificarne l’applicazione
CHECK – CONFRONTARE I RISULTATI
  • verificare i risultati delle azioni intraprese
  • confrontare con gli obiettivi prefissati
ACT – STANDARDIZZARE LA SOLUZIONE
  • rendere prassi comune la soluzione trovata
  • preparare una nuova fase di plan.

LEZIONI DI MICROSCOPIA: apertura numerica e risoluzione, mezzi di immersione

L'apertura numerica dell'obiettivo di un microscopio è la misura della sua capacità di raccogliere luce e di risolvere i dettagli del campione a una certa distanza. Le onde luminose che formano l'immagine passano attraverso il campione ed entrano nell'obiettivo in un cono invertito 





 La luce bianca consiste in un ampio spettro di onde elettromagnetiche, le cui lunghezze d'onda variano tra 400 e 700 nanometri; 1 millimetro equivale a 1000 micron e 1 micron equivale a 1000 nm. La luce di colore verde ha un intervallo di lunghezze d'onda a 550 nm, che corrisponde a 0,55 micron. Quando visualizzo al microscopio un oggetto piccolo, la luce incidente viene diffratta in modo che si discosti dalla direzione originale (Figura 1 (a)). Più piccolo è l'oggetto, più pronunciata sarà la diffrazione dei raggi luminosi incidenti. Valori più alti di apertura numerica consentono a raggi sempre più obliqui di entrare nella lente frontale dell'obiettivo, che produce un'immagine più altamente risolta e consente di visualizzare strutture più piccole con maggiore chiarezza.

Un semplice sistema di microscopia è costituito da un obiettivo e un campione illuminato da un fascio di luce collimato, che è il caso in cui non viene usato il condensatore. La luce diffratta dal campione è presentata come un cono invertito di mezzo angolo (α), che rappresenta i limiti di luce che possono entrare nell'obiettivo. Per aumentare l'apertura effettiva e il potere di risoluzione del microscopio, viene aggiunto un condensatore (Figura 1 (b)) per generare un cono di raggio sul lato di illuminazione del campione. Ciò consente all'obiettivo di raccogliere fasci di luce che sono il risultato di più ampi angoli di diffrazione, aumentando la risoluzione del sistema microscopico. La somma degli angoli di apertura dell'obiettivo e del condensatore viene definita apertura di lavoro. Quando l'angolo di apertura del condensatore è uguale a quello dell'obiettivo, si ottiene la risoluzione massima.

Per poter confrontare due obiettivi e ottenere un controllo quantitativo sulla risoluzione, l'apertura numerica (o la misura dell'angolo solido coperto da un obiettivo) è definita come:

Apertura numerica (NA) = η • sin (α)             (1)

dove α è uguale alla metà dell'angolo di apertura dell'obiettivo e η è l'indice di rifrazione del mezzo di immersione utilizzato tra l'obiettivo e il vetrino protettivo che protegge il campione (η = 1 per l'aria; η = 1.51 per l'olio o il vetro). Esaminando l'equazione (1), è evidente che l'indice di rifrazione è il fattore condizionante nel raggiungere aperture numeriche superiori a 1,0.  Sin(90°)=1 il che suggerisce che l'apertura numerica è limitata non solo dall'apertura angolare, ma anche dall'indice di rifrazione del mezzo. In pratica, gli angoli di apertura superiori a 70-80 gradi si trovano solo negli obiettivi più performanti (che in genere costano migliaia di dollari).

La risoluzione di un microscopio ottico è definita come la distanza più piccola tra due punti su un campione che può ancora essere distinto come due entità separate. La risoluzione è direttamente correlata all'amplificazione utile del microscopio e al limite di percezione del dettaglio del campione, sebbene sia un valore alquanto soggettivo in microscopia perché ad alto ingrandimento, un'immagine può apparire sfuocata ma deve ancora essere risolta alla massima capacità del microscopio. obiettivo e assistenza componenti ottici. A causa della natura ondulatoria della luce e della diffrazione associata a questi fenomeni, la risoluzione di un obiettivo del microscopio è determinata dall'angolo delle onde luminose in grado di entrare nella lente frontale e pertanto si dice che lo strumento sia diffrazionalmente limitato.


Gli osservatori perderanno le sfumature nell'immagine se l'obiettivo proietta sul piano dell'immagine dettagli più piccoli del potere risolutivo dell'occhio umano (situazione tipica a bassi ingrandimenti e aperture numeriche elevate). Il fenomeno dell'ingrandimento vuoto si verifica se un'immagine viene ingrandita oltre il potere risolutivo fisico delle immagini. Per questi motivi, l'ingrandimento utile per l'osservatore dovrebbe essere superiore a 500 volte l'apertura numerica dell'obiettivo, ma inferiore a 1.000 volte l'apertura numerica.

domenica 22 ottobre 2017

Misurazione quantitativa di trattamento di cromo esavalente nelle viti in metallo

Introduction

Quantitative Measurement of Hexavalent Chromium
V-630 UV-Visible Spectrophotometer
Hexavelent chromium (Cr(VI)) is a significantly hazardous material regulated by OSHA with reference to 29CFR parts 1910 and 1915, by RoHS directive, and by IEC-62321 , which strictly controls and  regulates the use of specific hazardous materials in a wide range of industrial processes as well as electrical and electronic products.
This application note describes the extraction and quantitative measurement of hexavalent chromium residue from the treatment of two samples of screws using a chromogenic reaction and UV-Visible spectroscopy.
The chromium from two steel screws (Figure 1) was extracted using hydrothermal extraction. The screws were placed in 25 mL of purified water and heated at 80° C for 30 minutes. These conditions are subject to change depending on the sample type and requirements of regulatory compliance.

Experimental

Figure 1. Sample screws.
The chromium from two steel screws (Figure 1) was extracted via Hydrothermal Extraction. The screws were placed in 25 mL of purified water and heated at 80 degrees Celsius for 30 minutes. These conditions are subject to change depending on the chromium coatings for a particular screw.
After hydrothermal extraction, the screws were removed from the extraction liquid which was cooled to room temperature. The chromogenic reagent (Kyoritsu Chemical-Check Lab) was added to the extraction liquid, stirred for 1 minute, and the left to stand for 5 minutes. Turbidity was observed after 5 minutes. Figure 2 shows the sample pre- and post-filtration. Measurements were obtained on both samples for comparison using the following measurements parameters.
Figure 2. Screw samples after the chromogenic agent was added to the extraction solutions and pre- (left) filtration and post (right) filtration of the solutions.
Measurement Conditions
Bandwidth1.5 nmData Interval0.2 nm
Scan Speed400 nm/minResponseMedium

Keywords

UV-0015, V-630, UV-Visible/NIR, Hexavalent Chromium, IEC-62321, 29CFR part 1910, 29CFR part 1915

Result

The spectra of the samples before and after filtration are illustrated in Figure 3. The spectrum of the sample before filtration shows a higher baseline, which is due to the dispersion of interfering substances in the solution. A three wavelength quantitative analysis was performed to confirm the effects of the interfering substances. Table 1 shows the results of the peak height calculations. Regardless of the pretreatment, almost identical results were obtained.
Figure 3. Absorption spectra of samples A and B before (purple) and after (blue) filtration.
Table 1. Peak height calculation results of screw samples A and B.
Sample ASample B
BeforeAfterBeforeAfter
1 WavelengthAbs at 542 nm0.103930.092880.063650.04482
3 WavelengthPeak height: 542 nm
Base: 402, 635 nm
0.087820.087650.039320.03915
Three wavelength quantitative analysis was examined on the peak height calculated with peak wavelength at 402 nm and a base wavelength at 635 and 542 nm. The calibration curve obtained by the diphenylcarbazide method in Application Note UV-0004 was applied to this quantitative analysis. Table 2 shows the concentration of Cr (VI) for samples A and B using a two-sided 95% confidence interval and both samples A and B fall within ±0.005 mg/L of the confidence interval.
Table 2. Quantitative results of Cr(VI) in screw samples.
Sample ASample B
BeforeAfterBeforeAfter
0.135 ± 0.006 mg/L0.135 ± 0.006 mg/L0.059 ± 0.005 mg/L0.059 ± 0.005 mg/L

LE TRE REGOLE DELLE ATTIVITA’ UMANE

Ricorda che in ogni attività umana devono esserci tre elementi: innanzitutto le singole imprese devono venir meditate con saggezza prima di essere realizzate; in secondo luogo devono essere compiute per tempo e con prontezza; in terzo luogo ciò che è stato meditato e compiuto deve essere serbato e difeso con coraggio. Il sigillo dei sigilli Immagine: Aurora Conseguens, inizi del secolo XV. "Nel Padre c'è l'eternità, nel Figlio l'identità e nello Spirito Santo la partecipazione all'eternità ed all'identità ... ed i tre sono uno, cioè corpo, spirito ed anima; quindi nel numero 3 vi è ogni perfezione". La triade è rappresentata dai tre uccelli dai tre colori dell'Opera (l'Opera è quella che porta alla realizzazione della pietra filosofale)

(www.ormus.it)

mercoledì 20 settembre 2017

Tracking Microplastics in the Environment via FT-IR Microscopy

Aug 01, 2017
Volume 32, Issue 8, pg 17–23
Microplastics are particulates, roughly 201000 µm in size, originating from materials such as clothing, abrasive action on plastics, or engineered microbeads as found in some exfoliating cosmetics. The microplastics enter aquifers where the particles can be consumed by filter feeders. Microplastics are chemically stable, giving them a long lifetime in the environment and making excretion or digestion difficult. Analytically, the size and polymeric nature of microplastics makes Fourier transform infrared (FT-IR) microscopy an ideal tool for detection and identification. Standard analyses typically start with a filtration step, extracting the material from the matrix. The analysis can proceed directly on the dried filter without further sample preparation. This simplicity in both sampling and analysis enables the rapid assessment of microplastic encroachment and can assist in the development of remediation techniques. We show examples from both prepared and field samples using microattenuated total reflection (ATR) FT-IR.


Macroscopic plastics are showing up in many environmental systems, including mid-Pacific zones (1) and tropical islands (2). Microplastics, 201000 (or 5000) µm fibers or granules of polymer, are more insidious because they can’t be picked up simply as trash. Microplastics originate both from engineered materials, such as the microbeads found in some exfoliating creams, and from abrasion or wear of polymeric materials, even from laundering of synthetic fabrics (3). Microplastics live a long time in the environment and unfortunately they are exactly the right size for filter feeders to consume them. From there, they can move up the food chain and are now found in fish, birds, and other wildlife. 
The microplastic materials are small enough to be highly mobile in the environment, carried most easily by flowing water. Adsorption of chemical or biological toxins on the microplastics can then enable transport of those toxins from one biome to another (mobilizing materials). More directly, the microplastics clog critical digestive pathways. The chemical environments in the digestive paths are insufficient to dissolve these clogs, resulting in incapacitation or death of the organisms (3,4).
Remediation requires answering two critical questions: What are the particles and how many particles are present (number density)? Polyethylene, polypropylene, polystyrene, and nylon are some of the more commonly found materials, from food packing, toys, and many other sources. The number density varies from negligible in isolated lakes and streams to severe in some lakes and estuaries. Changes in the microplastic population (type or number) indicate a new set of conditions, such as those generated by flooding which augments transport of these materials over a large area.
In the aquifer, simple filtration (sieves or simple filters) is typically sufficient to isolate representative populations of microplastics. Sampling within an organism requires separation of the microplastics from the organism, such as the digestive tract of fish (4). This generates a solution that is then filtered. Observation of these samples under a standard light microscope can lead to particle counts, but identification of the materials using visible microscopy alone is problematic at best. Microplastics have been analyzed by gas chromatographymass spectrometry (GC–MS), scanning electron microscopy with energy dispersive spectroscopy (SEM–EDS), and combustion analysis. Each of these techniques has strengths and weaknesses—sensitivity, specificity, time for analysis, and destruction of the sample being considerations. However, vibrational spectroscopy, both Fourier transform infrared (FT-IR) and Raman, can provide insights quickly and nondestructively with a high degree of confidence.
FT-IR microscopy is an excellent tool for the analysis of these materials. Filtration of a known volume of liquid (river water, for instance) followed by infrared identification and particle counting provides a thorough picture of the material present. Modern software automates many of the steps, enabling an analyst to answer those critical questions quickly and efficiently. This article starts with the basics of sample collection and single-particle identification and then examines techniques for the analysis of larger regions. We present data from both model systems using manufactured microbeads and real world filtrates.

Experimental

Samples prepared from both reference materials and environmental sources were examined. The primary goal of the work was to demonstrate the utility of FT-IR for this analysis; no extrapolation in a particular environment was made. Recently, we examined samples from the automotive, food, and cosmetics industries as well as environmental samples; here only a brief overview is provided..

Results and Discussion

Most environmental studies of microplastics involve filtration of a liquid sample (typically but not always aqueous), followed by drying. This results in a sample that can be placed directly into the microscope—there is no need to pick off pieces for analysis. The visible capabilities of FT-IR microscopes enable location and selection of a particle or a region for analysis.
 The fiber or particle was located visually and then centered in the aperture. The Ge-ATR accessory was then brought into contact with the particle. With Ge-ATR, there is a fourfold increase in magnification (because of its high index of refraction). The FT-IR microscope has a 10× magnification; with the Ge-ATR accessory the magnification increases to 40×. The standard 1-mm circular pinhole thus results in an effective aperture at the sample of 25 µm. As most microplastics are this size or larger, this ensures good spectral purity. 
The spectrum matches with acrylic (the strong nitrile peak at 2243 cm-1 because of -C≡N is strongly indicative of this), suggesting a fabric source as the likely origin. The two particles in Figure 2 were separated from another (different origin) water sample. Again, the ATR results are unambiguous, with the identification as polyethylene and polypropylene, respectively. These are common from many sources. Excluding sample preparation time, the analysis of these three samples took less than 2 min each even with a user not trained in microscopy.


venerdì 1 settembre 2017

Hanson Vertical Diffusion Cell (VDC) per studio, sviluppo e controllo di qualità delle preparazioni topiche.

Hanson Vertical Diffusion Cell (VDC), in vetro borosilicato inerte, è progettato per la precisione e la facilità d’uso. E’ compatibile con numerose membrane, sintetiche, di origine animale, estratte da cadaveri e con Strat-M®. VDC sono marcate con numeri di serie individuali e sono disponibili nei formati da 4mL, 7mL e 12mL. Il sistema comprende un’unità a 6 celle VDC, una coppa per la sostituzione dei media e un kit di fornitura che include una siringa campionamento manuale e in altre parti per contribuire a eseguire un test. Il sistema è adattabile per la successiva aggiunta del campionatore Vision Microette.


Caratteristiche Vertical Diffusion Cell:
  • Ideali per le formulazioni più diverse; farmaci transdermici, oftalmici, cosmetici e pesticidi
  • Design “Occluded” per impedire contaminazioni ambientali
  • Camera ad acqua per omogeneità della temperatura durante I test
  • Trappola per bolle per impedire l’effetto indesiderato sulla velocità di diffusione
  • Porte a circolazione garantiscono che le temperature tra celle siano uniformi
  • Porta di campionamento a volume ridotto per minimizzare i volumi morti
  • Pinza di assemblaggio mantiene la cella in posizione e garantisce la pressione corretta
  • Possibilità di automatizzare il campionamento con Vision® Microette™
  • USP <1724> compliant
Applicazioni personalizzate
Nuove forme di dosaggio sono oggetto di ricerca in tutte le industrie farmaceutiche innovative. Il nostro team di ricercatori è in grado di progettare cellule speciali per applicazioni personalizzate, come fibra ottica in situ, forme di dosaggio non viscose, permeazione attraverso unghie, ionoforesi e molto altro ancora.
Cella ad alto standard
Queste celle sono incluse nel sistema Hanson VDC. Sono progettate per essere occluse in modo da minimizzare la contaminazione durante il processo di campionamento. Una membrana viene applicata su un lato del wafer di dosaggio, questo viene applicato sul lato opposto della camera. Questa cella trova le migliori applicazioni per materiali viscosi come creme, pomate e gel.
Open Cell Top With Cap
Facilmente adattabile al sistema Hanson VDC. Il tappo può essere rimosso durante il campionamento per aggiungere o rimuovere materiale. Trova il miglior utilizzo per materiali a bassa viscosità poiché le celle sono assemblate prima di aggiungere il campione, sono più grandi e possono quindi alloggiare un quantitativo di campione più ampio.

domenica 2 luglio 2017

NANOVEA : profilometria 3D applicata a monitoraggio della essiccazione della vernice



La vernice liquida progressivamente si asciuga fino ad assumere la consistenza solida. Il processo di essiccazione coinvolge :

  • evaporazione del solvente
  • formazione di un film solido.
Possono verificarsi variazioni della forma e della consistenza sulla superficie della vernice durante il processo di essiccazione; inoltre, differenti finiture superficiali e differenti strutture possono essere sviluppate utilizzando additivi per modificarne la tensione superficiale e la fluidità. Tuttavia, comportamenti indesiderati della vernice possono verificarsi nei casi di cattiva ricetta o trattamento inadeguato della superficie da trattare. 

L'accurato monitoraggio in situ dell'evoluzione del profilo della superficie verniciata -durante il periodo di asciugatura della vernice- può fornire informazioni dirette nel meccanismo di asciugatura. 
Inoltre, l'evoluzione in tempo reale delle informazioni morfologiche superficiali è molto utile in varie applicazioni, come la stampa 3D. Il profilometro Nanovea 3D senza contatto monitora la morfologia superficiale dei materiali senza toccare il campione, evitando qualsiasi alterazione che può essere causata dal contatto.

martedì 30 maggio 2017

VIAVI Micro NIR : applicazioni nel settore agro-alimentare

La spettroscopia nel vicino infrarosso (NIR) si afferma come metodo valido per l’analisi qualitativa/quantitativa di molti prodotti nell’industria alimentare, perchè è:

  • veloce ( analisi in pochi minuti)
  • non distruttiva 8 il campione può essere utilizzato nuovamente per altre indagini a cascata)
  • non invasiva ( il trasferimento energetico su campione è molto basso)
  • il campione non ha bisogno di essere preparato all'analisi, nè di reagenti tossici
  • possibilità di campionamento in remoto tramite fibre ottiche


I picchi dello spettro nel NIR di un determinato campione sono riferibili ai suoi specifici gruppi funzionali (bande di assorbimento dovute ai legami C-H, N-H, O- H, P-H, SH) 
Si può pertanto effettuare un’analisi di tipo quantitativo per la determinazione di componenti
che contengono tali legami : acqua=umidità%;  proteine, lipidi = grassi, carboidratifibre, ceneri, fosforo, ed ancora parametri fisici come viscosità e densità.
Nel pesce è ad esempio possibile determinare il grado di freschezza, così come come il grado di sale negli insaccati
E’ possibile analizzare differenti tipi di Miele derivanti da un unico fiore - es. Acacia (Robinia), Castagno (Castanea), Rosa Alpina (Rhododendro), Tiglio (Tilia), ecc – oltre a Miele proveniente da più fiori.
Nel caffè determiniamo il grado di tostatura,umidità, proteine, grasso, fibra, ceneri, amido, caffeina
Nell'uva, è possibile quantificare solidi solubili, pH, Acidità, Antociani potenziali ed estraibili, Polifenoli totali...

...e ancora succhi, uova, yoghurt e formaggi in generale, farine in grani o macinate, olio d'oliva ecc.