Corso sicurezza lavoratori Bergamo

CORSO ADDETTO PRIMO SOCCORSO (aziende gruppo B e C) | Corso Primo Soccorso

By / CORSI, CORSI FORMAZIONE, SICUREZZA LAVORO / Commenti disabilitati su CORSO ADDETTO PRIMO SOCCORSO (aziende gruppo B e C) | Corso Primo Soccorso

CORSO ADDETTO PRIMO SOCCORSO (aziende gruppo B e C)

Corso Primo Soccorso

L’Addetto al primo soccorso è il lavoratore incaricato dell’attuazione in azienda dei provvedimenti previsti in materia di primo soccorso ai sensi dell’art. 18 e 45 del D. Lgs. 81/08.

Il corso ha l’obiettivo di formare e informare gli addetti al pronto soccorso aziendale trasferendo ai partecipanti le opportune conoscenze di natura tecnica nonché le necessarie abilità di natura pratica.

Tutta la formazione è svolta da personale medico.

Il corso di Primo Soccorso si articola in tre moduli A, B e C:

Modulo A

  • Allertare il sistema di soccorso
  • Riconoscere un’emergenza sanitaria
  • Attuare gli interventi di primo soccorso
  • Conoscere i rischi specifici dell’attività svolta

Modulo B

  • Acquisire conoscenze generali sui traumi in ambiente di lavoro
  • Acquisire conoscenze generali su patologie specifiche in ambiente di lavoro

 Modulo C

  • Acquisire capacità di intervento pratico

Studio Samele è un Centro Convenzionato a Fondazione Asso.Safe in collaborazione con A.D.L.I. (Associazione Datori di Lavoro Italiani) e CONF.A.M.A.R. (Confederazione Autonoma dei Movimenti Associativi di Rappresentanza) nonché riconosciuto come Sede Territoriale A.D.L.I.

Tutta la formazione erogata è certificata ed approvata da:

O.N.P.A.C. (Organo Nazionale Paritetico Adli Confamar)

O.P.N.E. (Organo Paritetico Nazionale Edilizia)

Al termine del corso verrà consegnato il Programma Formativo approvato dagli Organismi Paritetici competenti, il registro presenze, le dispense, i test finali di valutazione dell’apprendimento, gli attestati di Fondazione Asso.Safe.

DATE corso: mercoledì 27 marzo ore 8:30/14:30 e giovedì 28 marzo ore 8:30/14:30;

Sede di svolgimento: Studio Samele S.r.l., via C. Colombo, 24 – 24044 – Dalmine (BG)

COSTO: 150.00 euro (iva esclusa)

Gli spazzini del web. Quando la tecnologia non è sufficiente | Corso sicurezza lavoratori Bergamo

By / CORSI, CORSI FORMAZIONE, SICUREZZA LAVORO / Commenti disabilitati su Gli spazzini del web. Quando la tecnologia non è sufficiente | Corso sicurezza lavoratori Bergamo

Gli spazzini del web. Quando la tecnologia non è sufficiente

Corso sicurezza lavoratori Bergamo

Facebook, così come altre piattaforme web, hanno dato come prerogativa fin dalla loro nascita una netta censura nei confronti dei contenuti violenti e pornografici. Questa linea “editoriale” è stata adottata proprio per non portare ad una degenerazione dei contenuti che avrebbe potuto in pochi anni trasformare siti come Facebook in grandi bacheche del vizio dove l’aspetto sociale e di interazione degli utenti avrebbe avuto un’importanza marginale. La scelta è dovuta anche al tipo di utenza che popola il mondo di Facebook che è composta anche in parte da minorenni (circa il 6% del totale, 120.000 utenti) ma soprattutto per la volontà da parte di Mark Zuckerberg di tutelare al 100% la propria piattaforma. Per garantire quindi i contenuti del social più famoso del mondo intervengono 2 filtri: un primo filtro è “automatico” e gestito da un sistema di analisi computerizzata dei contenuti delle foto e un secondo filtro invece è fatto da persone reali che filtrano in base alle linee guida indicate dal social network cosa può essere pubblicato e cosa no. Il primo filtro è appunto automatizzato e si basa sul cosiddetto Intelligent Learning. In pratica il sistema è in grado di analizzare una fotografia non solo nei suoi aspetti tecnici ma anche nel suo contenuto ed è in grado di capire quando in essa sono presenti scene di sesso o di violenza. È un sistema che si basa sull’apprendimento. Il software confronta l’immagine caricata con altre presenti nel web riuscendo di volta in volta ad affinare la sua capacità di filtraggio. Fatta una prima scrematura attraverso un sistema automatico interviene in seconda battuta l’intervento umano. Infatti molte delle immagini filtrate devono essere visionate da un essere umano che in base alle linee guida dettate dal social network decide se possono essere pubblicate oppure no. Vi sono delle sfaccettature che un software non è ancora in grado di identificare con precisione. Lo scorso anno il Guardian, giornale famoso a livello mondiale, è venuta in possesso delle linee guida che vengono fornite ai cosiddetti spazzini del web. Le sfumature sono diverse sia dal punto divista sessuale che sulla violenza. Infatti si fa l’esempio di una frase rivolta verso il Presidente degli Stati Uniti Trump: se la frase è “qualcuno dovrebbe sparare a Trump” vanno rimosse, perché i capi di stato sono una categoria protetta sul social network. Al contrario, affermazioni del tipo: “muori” o “spero che qualcuno ti uccida” vengono tollerate poiché non costituiscono una minaccia credibile. Così come accade per alcune foto. I nudi sono sempre eliminati ma ad esempio scene in cui i rappresentati sono nudi ma non vengono mai inquadrati interamente rispettano la policy e quindi rimangono online nel sito. I casi possono essere quindi innumerevoli e solo il giudizio umano può stabilire alla fine cosa può e cosa non può rimanere nel social network. Queste persone vengono definite “spazzini del web”. Il loro lavoro è quello di decidere in pochi secondi se il contenuto rispetta o meno i dettami delle linee guida previste. Un lavoro che come ben spiegato dal documentario “The Moderators”, di Ciaran Cassidy e Adrian Chen, richiede una buona dose di sangue freddo. Sono migliaia le foto che vengono visualizzate che vanno dalla semplice pornografia a scene di violenza che purtroppo in alcuni casi coinvolgono anche bambini. Non mancano immagini video di suicidi che al solo pensiero fanno rabbrividire ma che tali persone sono “costrette” per lavoro a visionare ogni giorno. Questi centri sono dislocati in tutto il mondo, principalmente in India, dove persone alla prima esperienza lavorativa si occupano di decidere cosa può rimanere e cosa dev’essere rimosso dalla rete. Vi è poi una terza via che porta all’eliminazione di un contenuto. Infatti se il sistema per qualche ragione non individua un contenuto “sensibile” vi sono le segnalazioni degli utenti a metterlo in evidenza. Infatti un altro compito degli “spazzini del web” è quello di esaminare le segnalazioni da parte degli utenti. Queste sono preponderanti ad esempio negli episodi di bullismo dove molto spesso non vi è formalmente una violazione della policy dei social network, non essendo presenti nudità o violenza vera e propria, ma si evince un comportamento criminale dato dal perpetuarsi di certi comportamenti. Ad esempio la foto di uno scherzo tra adolescenti potrebbe essere classificata come un episodio normale ma se a questo fatto vi è poi un susseguirsi di azioni discriminatorie come commenti oppure il ripetersi di tali atti nei confronti di un’unica persona o da parte di un’unica persona si viene a conformare la classica situazione di cyberbullismo. La segnalazione di tali atti da parte di una o più persone porta velocemente alla cancellazione del contenuto potendo quindi bloccare “sul nascere” eventuali atti lesivi alla persona. Quello che ci deve far riflettere è come, nonostante l’evoluzione della tecnologia, vi sia ancora bisogno della sensibilità umana per capire cosa è tollerabile e cosa no in una determinata piattaforma online. Passaggi che ovviamente più andremo avanti e più verranno automatizzati ma che necessitano dell’input umano per non cadere in contraddizioni ed esasperazioni. La più famosa delle “censure” di Facebook fu in occasione della pubblicazione di un album contenente la foto di una ragazza Nord Vietnamita completamente nuda che scappava dal proprio villaggio in fiamme dopo un attacco al Napalm. Uno scatto molto famoso inserito anche in alcuni libri di storia che nella sua crudità rappresenta in maniera efficace l’orrore che contraddistinse quel conflitto. Tempo fa questo scatto venne censurato ed eliminato proprio perché non rispettava ovviamente la policy prevista da Facebook ovvero il suo contenuto rappresentava una minorenne senza vestiti. La “censura” in questa occasione colpì proprio perché non vi era stato l’intervento umano che avrebbe quindi impedito l’eliminazione considerando la foto al pari di un diritto di cronaca. Dopo questo caso, che ovviamente suscitò clamore mondiale, vi fu una modifica delle regole sui nudi sul social network più famoso al mondo che provvedeva la possibilità di inserirli nel caso in cui essi facciano parte della cronaca di una notizia. Allo stesso modo è stata consentita la pubblicazione di opere artistiche contenenti nudi integrali che in un primo momento il sistema censurava. Lo sviluppo dell’Intelligent Lear- ning, un sistema che confronta le informazioni da analizzare con i contenuti del web, porterà nei prossimi anni ad una graduale diminuzione dell’intervento umano in favore di un sempre più preciso sistema automatizzato ma fino a quel momento l’intervento degli “spazzini del web” sarà indispensabile per garantire una navigazione sicura per noi e soprattutto per i più giovani.

 

Alberto Faggionato, Responsabile Informatico della Fondazione Asso.Safe