Professionalità non retribuita alla Innocenzi

 

Stamattina, girvavando su facebook non ho potuto non notare il seguente post della giovane, intraprendente e brava giornalista di Servizio Pubblico, Giulia Innocenzi.
Post Giulia Innocenzi

 

L’annuncio sembra molto quello di Federico PizzarottiM5S, neoeletto a gennaio 2013 al comune di Parma che chiedeva un informatico aggratisse con tanta voglia di fare del bene per il comune.

Quello che mi sconvolge di piu’ in tutto questo e’ che queste richieste vengono da persone giovani. Non mi sarei stupito se questi annunci vengano fatte dai Berluscones o dai Bersani del caso che non capiscono il fenomeno web ed internet. Il fatto che queste richieste arrivino da persone giovani, quasi mie coetanee, mi fa capire che in italia non sta cambiando niente e che le nuove generazioni non si discostano molto dal modo di pensare delle generazioni passate.

Io non credo che la signorina Innocenzi avrebbe mai iniziato a lavorare a Servizio Pubblico senza tutte quelle centinaia di migliaia di persone, compreso me, che hanno donato 10 euro per far partire il progetto di Santoro. Perche’ queste persone hanno donato 10 euro? Perche’ riconoscevano in Santoro e la sua crew la professionalità e volevano vedere ancora un volta in onda il loro lavoro.

Ciò che persone come Giulia non capiscono è che il lavoro dell’informatico, come qualsiasi altro lavoro, ad esempio, il giornalista, richiede professionalità e adeguata retribuzione che dovrebbe essere proporzionale alla qualità del lavoro svolto. Se questo lavoro, professionale, non viene retribuito, si è semplicemente una componente rimpiazzabile. E allora, che senso ha la professionalità? Quante volte ho sentito la frase: “Il sito lo faccio fare a mio nipote a 50 euro”. Una frase del genere, detto dall’imprenditoretto di turno, fa capire come la tecnologia è vista come un costo e non come valore aggiunto o componente fondamentale del business o dell’idea che si vuole proporre. Ovviamente, ogni persona che mi ha detto questo, è poi tornato a bussare alla mia porta perchè il “sito del nipote” era inadeguato a quello che voleva fare.

Inoltre, il lavoro dell’informatico è diverso da quello del giornalista per diverse cose: sembra che svelo l’arcano, cara Giulia, ma un sito o qualsiasi sistema che gira su un computer ha un costo. Il costo dell’hosting e della connessione se è un servizio online, il costo degli update a breve, medio o lungo termine ecc ecc. Tutti questi costi, se non preventivati a dovere  possono non solo inificiare sulla riuscita del progetto ma addirittura affossarlo. Un sistema informatico, sito web, qualsiasi cosa, aggratisse, semplicemente non esiste. Il fatto che tu usi dei servizi, gratuitamente, è perchè stai pagando in altro modo, per esempio con la tua privacy o vedendo inserzioni pubblicitarie più o meno nascoste (aka google e facebook)

Se mai leggerai questo articolo, cara Giulia, ti consiglio la prossima volta di non dire semplicemente “cerco informatico aggratisse” ma di dire “cerco collaboratore tecnologico per una idea di volontariato”. Non suona molto meglio ? Se dicessi: “cerco giornalista aggratisse” o “cerco brava scrittrice per una idea di volontariato” non suona meglio ? Perchè poi, se l’idea è valida, i soldi arrivano, con la pubblicità o con finanziamenti privati, ed il giornalista e l’informatico almeno potranno sfamarsi in un Paese, come il nostro, incapace di progredire.

My 2c.

Ubuntu phone è in arrivo

Oggi alle 19 ora Italiana nel sito di ubuntu.com è apparso questo lungo video che vale tutti i 21 minuti circa di cui è composto.

Mark Shuttleworth ha annunciato un commitment ufficiale di Ubuntu e Canonical per una nuova piattaforma software per smartphone. Bene direte, non avevamo bisogno di un’altra piattaforma software dopo Android, Ios e Windows Mobile. Invece in questa nuova piattaforma credo ci sia una sostanziale differenza.

In Android come in Ios che in Windows Mobile, sia Google, che Apple che Microsoft hanno aggredito il nuovo mercato aperto dagli smartphone. Hanno quindi sviluppato in pratica un nuovo sistema operativo che aveva come target piccoli devices da tenere in tasca in grado anche di fare telefonate.

Ubuntu ha chiaro che questi piccoli devices nella tasca di ognuno di noi sono in realtà dei veri e propri computers. Gli ultimi devices, come il Nexus 4 o l’Iphone 5, hanno specifiche tecniche che fanno impallidire qualsiasi pc di qualche anno fa. Ubuntu ha voluto quindi abbracciare un’altra visione: creare una unica interfaccia consistente tra desktop, smartphone e tablet. 

Microsoft nell’era pre-smartphone aveva provato a portare la stessa interfaccia desktop sui telefoni, senza mai sfondare il mercato e senza mai essere da traino. Ubuntu invece ha deciso di adattare la propria interfaccia in base al dispositivo ma tenere sostanzialmente uguale le funzionalità come le ricerche sui files o sulle applicazioni e le notifiche.

Dal lato software invece, quello che è davvero innovativo è il paradigma utilizzato. Per la prima volta si possono fare sia applicazioni native, sia applicazioni web che si integrano perfettamente con il sistema. Negli altri sistemi, come Android o Ios,  le applicazioni possono anche essere web (html5) based, ma devono essere contenute in una applicazione nativa che non è altro che una visualizzazione del browser. Le applicazioni native sono scritte in C o C++ usando il framework Qt, ma dato che esistono bindings Qt in pratica per qualsiasi linguaggio è facile ipotizzare che qualsiasi linguaggio di programmazione con supporto Qt possa creare una applicazione nativa per questa piattaforma.

Ubuntu promette una nuova prospettiva, molto interessante, nel panorama mobile. Sembra che però al momento non ci siano prodotti pronti per la distribuzione ma che ubuntu stia invece cercando dei produttori hardware pronti a rilasciare ubuntu con i loro smartphone.

Di sicuro Ubuntu conferma la sua natura innovatia ed imprenditoriale, se poi riuscirà nel suo intento di produrre una vera alternativa è ancora tutta una partita aperta e piena di colpi di scena che sicuramente non tarderanno durante il CES 2013 a Las Vegas.

No il cancro non può essere curato con la mente. punto.

dicembre 27, 2012 3 commenti

Mi scuso con i miei lettori abituali, questo post non parlerà di tecnologia ed informatica. Inoltre vi avverto che potrebbe essere particolarmente prolisso. Insomma siete avvisati prima di iniziare a leggere🙂

Ogni anno, sotto il panettone, capita sempre la discussione. Quella discussione che quando la senti ti fa ribollire il sangue. Quest’anno la discussione che mi sono trovato ad affrontare non ha niente di informatico o tecnologico ma è di natura prettamente medica ed è nata sulla frase: il 70% delle malattie è curabile con la mente e con l’effetto placebo.

Appena sentita una frase del genere sfido qualsiasi uomo di scienza a non iniziare a contraddirla pur non avendo solidi dati alla mano. Una affermazione del genere mette in discussione circa 300 anni di storia delle medicina, da Pasteur ed i suoi vaccini ad oggi. Basta infatti osservare un qualsiasi ospedale per capire che senza medicinali il mondo sarebbe molto meno popolato.

Come se non bastasse, chi sosteneva la prima frase affermava che anche il cancro e curabile con l’effetto placebo. Dopo aver sentito questa frase potete immaginarvi che nella mia mente spuntava il fantasma di Vanna Marchi e di tutti gli stregoni ad essa associati. Ovviamente non avrei fatto neanche caso se queste parole venissero dal familiare di turno che a causa dell’età non ha perfezionato i suoi studi e quindi facilmente impressionabile da falsi messaggi televisivi o giornalistici molto comuni ai giorni d’oggi. Invece chi parlava era una persona che studiava all’università psicologia e, pur capendo la volontà di sottolineare l’importanza della materia studiata, è comunque un po’ troppo farsi sostenitore di una tale frase. E’ proprio questo il fatto che mi porta quindi a scrivere questo articolo ed ha attivato una ricerca durata qualche ora sull’effetto placebo e su come la psiche possa essere causa o meno del cancro.

Procederemo a dimostrare che i vaccini sono efficaci e poi procederemo ad orgomentare il fatto che l’effetto placebo non è in grado di curare nessun tipo di male.

L’immagine che segue è chiara e mostra come una volta somministrati i vaccini alla popolazione i casi rivelati per il singolo male vaccinato sono ridotti anche fino al 99,9% su base annua. Statisticamente parlando, c’è una forte evidenza che il sorgere della malattia sia correlato con la somministrazione o meno del vaccino.

https://i0.wp.com/upload.wikimedia.org/wikipedia/it/5/51/TabellaNetworkItalianoVaccinazioni.JPG

Credo basti solo questa tabella per dimostrare che appunto i vaccini sono efficaci ed hanno salvato milioni di vite in passato.

Chi sosteneva che il cancro può essere curato con l’effetto placebo argomentava con un link su mediciitalia.it sull’argomento placebo. In questo link in effetti si parla di un caso, quello del sig. Wright. In sintesi, il signor Wright, nel 1952 è stato trattato con un placebo ed il suo cancro è iniziato a regredire, scoperto il fatto che la medicina che prendeva non era efficace con il cancro, quest’ultimo è nuovamente avanzato, il medico ha quindi somministrato un altro placebo ed il sig. Wright, di indole buona e accondiscendente, ha visto diminuire la voracità del suo tumore. Quando scoprì che era di nuovo vittima di un placebo il sig. Wright morì.

Questo articolo mi ha incuriosito perchè non appariva sul primo sito internet scritto da un mitomane, ma su mediciitalia.it che dovrebbe godere di una certa autorevolezza e l’incredibile storia raccontata mi ha incuriosito ancora di più. Che davvero la psiche possa curare anche mali di natura chimico fisica?

In questo caso c’è da sottolineare in primis che è datato 1950. In quegli anni non esistevano ancora sia la TAC o Tomografia compiuterizzata o la RMN o Risonanza magnetica nucleare che sono i due strumenti con i quali oggi si traccia lo sviluppo e la presenza di un cancro in qualsiasi corpo biologico. All’epoca pure la chemioterapia ancora muoveva i suoi primi passi e si era ben lungi a trovare qualche rimedio contro il cancro.

Continuando ad informarmi trovo uno studio sull’effetto placebo a cui la BBC ha dedicato un articolo. Datato 2003, la ricerca ha usato il metodo del double blind trials ovvero i pazienti sono suddivisi su due gruppi, ad uno vengono dati dei placebo. Tutti i pazienti sono inconsapevoli sul fatto che assumono un placebo o meno. Nel 21% dei casi che hanno assunto un placebo c’è una riduzione dei dolori e dei tranquillanti, il 27% ha mostrato un incremento di appetenza e il 17% ha incrementato il proprio peso di conseguenza. Tuttavia solo il 2% dei pazienti ha visto una lieve riduzione della massa tumorale, ma ciò può essere comunque attribuibile a errori di misurazione.

Lo studio conclude con Substantial improvements in symptoms and quality of life are unlikely to be due to placebo effects. ovvero che Non c’è nessuna evidenza statistica che l’effetto placebo curi il cancro.

Riguardo al sig. Wright è quindi molto probabile che il cancro continuava a progredire mentre comunque lui, per fattore prettamente psicologico, sembrava aver riguadagnato la sua salute.

E diffidate di mediciitalia.it. Sembra che non siano in grado di interpretare bene l’inglese.

A tutte le aspiranti Vanna Marchi o Vanna Marco, cambiate mestiere, a tutti gli aspiranti dottori o psicologi, non cadete nel tranello del populismo e del sentito dire, siete scienziati e prima di calpestare la medicina moderna credendo nei complotti monetari consultate più di un link.

Lettera ad @architettodidio

novembre 12, 2012 1 commento

Ciao architetto di dio.

Ho appena letto il tuo articolo sull’opensource sul tuo blog e non ho potuto fare a meno di commentare. Il commento é diventato troppo grande e quindi lo posto sul mio blog

Migrare all’opensource non è solo un fattore economico. Quello è solo un lato della medaglia, quasi un effetto. L’opensource porta cultura, informazione, partecipazione e soprattutto sviluppo. Non bisogna più affidarsi a giganti come Microsoft od Oracle per sviluppare i propri sistemi o comprarne di già fatti sperando che si adattino alle proprie esigenze. Invece si può sviluppare il software che serve partendo da qualcosa di già pronto e fatto dagli svariati progetti opensource che coprono oramai qualsiasi caso di utilizzo. Scegliendo la base opensource si può far lavorare persone locali, al comune o ad aziende esterne locali, per la personalizzazione e le modifiche.
In questo modo invece di spendere migliaia di euro in licenze che arricchiscono l’economia di altre paesi, si potrebbe far girare l’economia locale, anche con l’informatica. I conti sono semplici da fare. Una licenza windows retail costa circa 100E, mettiamo che il comune ha un deal e la prende a 70E. A questo bisogna associare il costo di licenza di almeno Office ed un software antivirus se non si vogliono mettere a rischio i dati. Si arriva facilmente ad almeno 150E a pc. Lei dice che ci sarebbe un risparmio di al massimo 2000E. Cio significa che in comune di piazza ci sono non più di 2000/150 = 13 computer. OOPS, credo che i conti non tornino.

Mi spiace ma dal suo articolo si denota il fatto che lei non sa neppure cosa sia l’opensource. Le consiglio la lettura di The cathedral and the bazaar su come i progetti opensource sono gesiti e come ogni progetto ha un team leader che è responsabile del codice committato al progetto. Questo significa che non è vero che chiunque prende il codice, lo modifica e lo propaga nel codice sorgente originale. C’è liberta di prendere il codice e sviluppare qualcosa di altro ma non di committare le proprie modifiche al progetto originale se non con l’approvazione del project leader.
Il kernel linux è più di 33 milioni di righe di codice, non sarà perfetto, ma ha molti meno bug dei sistemi proprietari semplicemente perchè più occhi possono (e lo fanno) scrutinare il codice sorgente, comprese aziende del calibro di Intel, Amd, Red hat, Nasa, ecc ecc che giornalmente utilizzano questi sistemi.

Mi rincresce sentirla parlare di lock-in associato a sistemi che si rompono a livello hardware. Per me sono due concetti ortogonali. Lock-in è il fatto che in qualsiasi momento non sono in grado di esportare i miei dati e passare ad un sistema concorrente che non ha niente a che fare con una rottura hardware. Per una PA è fondamentale poter prendere tutti i dati e passare ad un sistema concorrente perchè, magari necessita quei dati per altri tipi di analisi o quant’altro. Essere bloccati ad un fornitore software rende la PA ostaggio delle decisioni di questa azienda compresi cambi di contratto, rincaro dei prezzi e anche fallimento dell’azienda stessa.
Sentirla parlare di failure hardware sembra ridicolo nel mondo del cloud in cui viviamo oggi dove l’hardware è una commodity, tutti i produttori hardware offrono servizi on site h24 per la riparazione delle macchine ma più importante di tutti, gli enti non hanno più le macchine. Le macchine sono noleggiati altrove. Una bella lettura su Amazon E2C, Rackspace, Heroku, Google app engine, Openstack sarebbe illuminante da questo punto di vista.

Riguardo alla sicurezza credo che quanto illustrato sopra le faccia capire che lo scenario da lei ipotizzato in cui vulnerabilità vengano incluse deliberatamente è uno scenario impossible. Ogni patch del kernel viene rivista da almeno 4 persone differenti prima che questa venga inclusa e questo accade anche con tutto il software pacchettizzato per le distribuzioni come Ubuntu e Debian.

Riguardo all’accessibilità questa dipende da come è stata pensata l’interazione uomo macchina. Non c’entra niente con chi gestisce il sito o chi da l’hosting. L’interfaccia utente è pensata da chi sviluppa il sistema ed ha assunto nel tempo sempre più importanza. Se un sistema è progettato in maniera poco intuitiva e/o difficile da capire, questo non verrà usato.
Riguardo a questo calzano a pennello le appena concluse elezioni americane in cui Romney si è affidato a Microsoft ed al progetto ORCA per il coordinamento dei volontari sul territorio mentre obama ha fatto sviluppare, partendo dal noto software opensource Drupal, un sistema chiamato Obama Dashboard. Washinngton Post riporta che il software ORCA pur essendo stato sviluppato per 4 anni, è statato un completo flop. Lento, complicato e non accessibile proprio quando serviva. Il team Obama in 5 mesi, partendo da soluzioni già sviluppate in maniera opensource, ha semplicemente fatto l’interfaccia grafica che serviva in 5 mesi e piazzato tutto su cloud in modo che il numero delle macchine attive a servire le pagine era variabile in base al carico.
Risultato: Obama ha vinto, e non di poco. Sicuramente non è stato l’unico fattore, Romney aveva contenuti che sembravano tirati fuori dal un film dell’inizio del 1900 ma tutti hanno riconosciuto che il lack di informazione ha giocato un ruolo fondamentale.

Ovviamente il passaggio ad un sistema opensource non è facile e richiede tempo e risorse, soprattutto umane. Ma alla fine l’investimento è sicuramente in positivo per il comune e quindi l’intera communità. Chi non è in grado di percepire il cambiamento, soprattutto in un settore altamente tecnologico, è destinato a perire professionalmente.

Che questo sia un monito, caro architetto di Dio, per ridimensionare il suo ego e di informarsi prima di scrivere parole a caso su un blog.

A presto.

Eduroam: ovvero come usare le credenziali Polimi per overseas

ottobre 7, 2012 1 commento

Se seguite questo blog, saprete pure che mi sono trasferito a Davis, in California. Bene. Davis è nota per la sua università, da poco proclamata ottava in tutti gli stati uniti. Il capus di Davis è davvero enorme. In pratica quasi mezza città di
Davis è occupata dal campus. E’ quindi facile incappare in qualche parco dell’università o nella gigantesca libreria del campus aperta al pubblico. Prima di partire avevo notato che è nato un network di università che hanno fatto una cosa davvero furba: permettere ad uno studente che viaggia un’altra università del network di poter accedere alla rete senza problemi come se fosse nella sua università di origine. Questo progetto di chiama eduroam.

Configurare eduroam con le credenziali polimi per eduroam è abbastanza semplice. Andate alla pagina della configurazione di eduroam per linux sul sito polimi e dopo che vi siete loggati fate il download dell’installer.

L’installer non è altro che un archivio tar che contiene un file che a sua volta contiene un altro archivio all’interno🙂 . Una volta scompattato e fatto girare l’installer vi troverete i files: ca.pem eduroam.conf polimi-protected.conf wifiCert.p12 direttamente nella vostra home directory (ovvero /home/USERNAME).

Basta ora aprire network manager e configurarlo come segue:
configurazione rete eduroam

Sostituite la parte cancellata nella figura del campo identity con il vostro codice persona polimi, la Private key password la trovate nel file eduroam.conf alla voce private_key_passwd è automaticamente settata dal server del polimi.

Dopo questi semplici passaggi dovreste essere in grado di collegarvi in tutte le reti eduroam senza problemi.

Come funziona internet simplified

maggio 6, 2012 1 commento

Questo post vuole spiegare come funziona la rete internet e cosa sono le varie porte di connessione.

Internet è una rete a pacchetto, ciò significa che in internet si trasferiscono sempre e solo pacchetti. Esistono essenzialmente due protocolli TCP UDP. TCP sta per Transmission Control Protocol e UDP significa User Datagram Protocol. Il protocollo TCP è orientato alla connessione, ovvero è in grado di capire se la rete è congestionata o sono stati persi dei pacchetti e li ritrasmette. Il protocollo UDP è orientato allo streaming e alle comunicazioni che devono essere veloci e non si cura se alcuni pacchetti vengono persi. La maggior parte di tutti i servizi su internet lavorano su protocollo TCP perchè fin dagli albori di internet si è fatto più attenzione all’integrità delle comunicazioni e non alla loro rapidità. Negli ultimi anni, ivece, si sta assistendo ad una evoluzione dei servizi che usano il protocollo UDP.

Connessione TCP

La figura riporta una connessione TCP con l’instaurazione della connessione, il trasferimento dei dati e la chiusura della connessione stessa. Ogni servizio, ovvero ogni funzionalità, di internet è veicolata da una tupla composta da (protocollo, porta) che identifica il servizio stesso. Per esempio le pagine web sono solitamente servite dalla porta 80 del protocollo TCP, ovvero (TCP,80), la risoluzione DNS dalla porta 53 UDP ovvero (UDP, 53), la posta elettronica IMAP dalla tupla (TCP,143) o (TCP,993) se la comunicazione è criptata, l’ftp dalla tupla (TCP, 21), ssh dalla tupla (TPC, 22). Potete consultare la lista di porte standard per i protocolli TCP e UDP su wikiepdia.

Si dice che un servizio è esposto o pubblico su internet se da un qualsiasi nodo della rete internet è possibile accedere al servizio considerato di un determinato host. Se quindi decido di pubblicare o esporre un server web la porta 80 del protocollo TCP dovrà essere raggiungibile da un qualsisi host della rete internet. Il concetto di raggingibilità è molto semplice. Un host x raggiunge un servizio y di un server z se una connessione di x a z alla porta specificata per il servizio y permette la comunicazione. In generale si può testare la connessione ad un servizio ed ad un host tramite il programma nc sotto linux aprendo un terminale e digitando:


nc host porta

Se il comando termina immediatamente allora non è possibile accedere alla porta specificata ed il servizio identificato dalla porta non è raggiungibile. Se si vuole usare il protocollo UDP basta aggiungere l’opzione -u alla riga di comando.

Il problema principale che deriva dal pubblicare un servizio su internet è la raggiungibilità a causa del NAT. NAT sta per network address translation e si occupa di “moltiplicare” gli indirizzi ip e di “separare” la rete LAN (ovvero la rete interna di un ufficio o di una casa) dalla rete Internet. La maggior parte dei router e hag fastweb fanno NAT in automatico. Per capire come funziona il NAT bisogna capire anche come si suddividono le reti. La seguente tabella come sono suddivisi gli indirizzi ip della rete internet:

Indirizzi CIDR Funzione RFC Classe Totale # indirizzi
0.0.0.0 – 0.255.255.255 0.0.0.0/8 Indirizzi zero RFC 1700 A 16.777.216
10.0.0.0 – 10.255.255.255 10.0.0.0/8 IP privati RFC 1918 A 16.777.216
127.0.0.0 – 127.255.255.255 127.0.0.0/8 Localhost Loopback Address RFC 1700 A 16.777.216
169.254.0.0 – 169.254.255.255 169.254.0.0/16 Zeroconf RFC 3330 B 65.536
172.16.0.0 – 172.31.255.255 172.16.0.0/12 IP privati RFC 1918 B 1.048.576
192.0.2.0 – 192.0.2.255 192.0.2.0/24 Documentation and Examples RFC 3330 C 256
192.88.99.0 – 192.88.99.255 192.88.99.0/24 IPv6 to IPv4 relay Anycast RFC 3068 C 256
192.168.0.0 – 192.168.255.255 192.168.0.0/16 IP privati RFC 1918 C 65.536
198.18.0.0 – 198.19.255.255 198.18.0.0/15 Network Device Benchmark RFC 2544 C 131.072
224.0.0.0 – 239.255.255.255 224.0.0.0/4 Multicast RFC 3171 D 268.435.456
240.0.0.0 – 255.255.255.255 240.0.0.0/4 Riservato RFC 1700 E 268.435.456

Gli indirizzi che appartengono alle reti private o LAN sono quelli che hanno funzionalità “ip privati”. Un router o un hag fastweb prendono un ip pubblico o di rete fastweb e assegnano indirizzi di rete privata, di solito 192.168.x.x o 1010.x.x ai dispositivi della rete locale.

Ora come potete immaginarvi, succede che se un host della rete internet prova a collegarsi al vostro ip pubblico (ovvero l’ip che il router o l’hag fastweb ha ottenuto) la richiesta andrà perduta perchè il router non sa a priori a chi indirizzare o  forwardare i pacchetti che gli arrivano. E’ proprio da questa considerazione che nasce il port forwarding, ovvero una impostazione del router che data una tupla (protocollo, porta) reindirizzano i pacchetti ad un’altra tupla (protocollo, porta) di un indirizzo interno alla rete che gestisce il router. Solo con un corretto port forwarding è possibile pubblicare un servizio su internet. Configurare il port forwarding dipende da router a router ma qualsiasi configurazione ha sempre le seguenti variabili: protocollo di ingresso (o wan), porta di ingresso (o wan), indirizzo ip di rete locale, porta locale, protocollo locale. Una volta configurato, ogni pacchetto che arriverà al router (che detiene indirizzo ip pubblico) ad una determinata porta, verrà reindirizzato al host della rete interna alla determinata porta. Per esempio se vogliamo pubblicare il servizio web e sftp imposteremo:

protocollo wan: TCP, porta wan: 80, indirizzo ip: 192.168.x.y, protocollo lan: TCP, porta lan: 80 (per web)

protocollo wan:TCP, porta wan: 22, indirizzo ip: 192.168.x.y, protocollo lan: TCP, prota lan:22 (per sftp)

Ovviamente bisogna cambiare x e y con i valori dell’indirizzo di rete interna a cui vogliamo redirigere il traffico. E’ da notare il fatto che la porta wan e la porta lan possono essere diverse. Posso quandi fare il forwarding di tutti i pacchetti che arrivano alla porta 8080 del router alla porta 80 del server. Il tutto è a nostra discrezione. Questa cosa è molto utile soprattutto se si vogliono pubblicare più servizi simili. Posso infatti pubblicare un server web nella porta 8080 e uno nella porta 80, ad esempio.

I NAS che solitamente si vendono sul mercato utilizzano solitamente la porta web (TCP,80) quindi basta configurare il port forwarding  come se fosse un server web cambiando l’indirizzo ip della rete locale con l’indirizzo ip del NAS. Nel caso il NAS non usa la porta web bisogna prima capire quale porta il NAS utilizza e poi fare la giusta configurazione di port forwarding.

Spero di aver dato una spiegazione esaustiva di funzionamento dei servizi di rete della rete internet e come pubblicare un servizio dietro ad un NAT. Per qualsiasi domanda o chiarimento usate i commenti.

Polidocs: aggiunto materiale per Reti Mobili Distribuite

Ho appena aggiornato il progetto polidocs per avere le slides aggiornate al 2011 di Reti Mobili Distribuite.

Potete visionare il materiale su https://github.com/goshawk/polidocs/tree/master/RetiMobiliDistribuite

Segnalatemi o forkate pure l’archivio per aggiungere nuovi appunti e/o materie.

Categorie:Generale
%d blogger cliccano Mi Piace per questo: