Modifiche recenti - Cerca:

Categorie

Pagine utente

Winzipedia

Uso dell'wiki

modifica il menu

IA /

A31Agenti

IA.A31Agenti Versioni

Nascondi le modifiche minori - Mostra le modifiche

10/10/2006 ore 11:20 CEST di Andrea - Release 1
Modificata la linea 1: da:
!A3_1 Agenti [BOZZA]
a:
!A3_1 Agenti
Modificate le linee 9-10: da:
Da questa separazione nasce l'esigenza di una visione unificante: essa coincide con il concetto di '''agente'''.
L'agente un' che interagisce con l'ambiente, ricevendo stimoli attraverso sensori (percezione) ed eseguendo azioni attraverso attutatori (azione). La funzione dell'agente specifica quale azione viene scatenata in seguito ad una sequenza di percezioni.
a:
Da questa separazione nasce l'esigenza di ''una visione unificante'': essa coincide con il concetto di ''agente''.
L'agente un' che ''interagisce con l'ambiente'', ricevendo stimoli attraverso sensori (''percezione'') ed eseguendo azioni attraverso attutatori (''azione''). La funzione dell'agente specifica quale azione viene scatenata in seguito ad una sequenza di percezioni.
Aggiunte le linee 13-14:
Modificate le linee 19-22: da:
* Tempo di risposta
* Correttezza della soluzione
* della soluzione
a:
* tempo di risposta
* correttezza della soluzione
* della soluzione
Modificate le linee 26-31: da:
* Data le percezioni che acquisisce (la percezione essere incompleta o incerta);
* Data la conoscenza che possiede (la conoscenza essere incompleta)
* Date le azioni che eseguire

e intraprende l'azione che massimizza il valore della prestazione desiderata. La conoscenza cablata all'interno dell'agente ne determina una base di partenza, dalla quale l'agente prendersi una certa autonomia. La conoscenza interna essere aumentata.
a:
* data le percezioni che acquisisce (la percezione essere incompleta o incerta);
* data la conoscenza che possiede (la conoscenza essere incompleta)
* date le azioni che eseguire
e intraprende l'azione che massimizza il valore della prestazione desiderata. La conoscenza cablata all'interno dell'agente ne determina una base di partenza, dalla quale l'agente prendersi una certa autonomia. La conoscenza interna essere aumentata attraverso processi d'apprendimento.
Modificate le linee 33-38: da:
* Ambiente
* Sensori
* Attuatori
* Funzione dell'agente
* Misura della prestazione
a:
* ambiente
* sensori
* attuatori
* funzione dell'agente
* misura della prestazione
Modificate le linee 43-44: da:
Un ambiente detto completamente osservabile se i sensori sono in grado di acquisire tutti gli aspetti che sono significativi per la scelta delle azioni. Se i sensori non sono in grado di catturare tutte gli aspetti, si dice che l'ambiente parzialmente osservabile: questo significare che le informazioni sono complete (mancano sensori) oppure che le informazioni sono affette da incertezza (provvengono ad esempio da stime).
a:
Un ambiente detto ''completamente osservabile'' se i sensori sono in grado di acquisire tutti gli aspetti che sono significativi per la scelta delle azioni. Se i sensori non sono in grado di catturare tutte gli aspetti, si dice che l'ambiente ''parzialmente osservabile'': questo significare che le informazioni sono ''complete'' (mancano sensori) oppure che le informazioni sono affette da ''incertezza'' (provvengono ad esempio da stime).
Modificata la linea 46: da:
Un sistema detto deterministico se lo stato successivo dell'ambiente completamente determinato dallo stato attuale e dall'azione dell'agente. Se il sistema parzialmente osservabile, allora apparire come stocastico.
a:
Un sistema detto ''deterministico'' se lo stato successivo dell'ambiente completamente determinato dallo stato attuale e dall'azione dell'agente. Se il sistema parzialmente osservabile, allora apparire come stocastico.
Modificate le linee 50-51: da:
Se l' dell'agente suddivisa in episodi completamente scorrelati fra loro, si dice che l'ambiente episodico. Viceversa, se l'azione attuale quelle future, l'ambiente detto sequenziale.
a:
Se l' dell'agente suddivisa in episodi completamente scorrelati fra loro, si dice che l'ambiente ''episodico''. Viceversa, se l'azione attuale quelle future, l'ambiente detto ''sequenziale''.
Modificate le linee 53-54: da:
Se l'ambiente evolve nel tempo, viene detto dinamico e nella progettazione dell'agente ci si preoccupare dello scorrere del tempo. Se invece l'ambiente non varia con il tempo, viene detto stazionario o statico. Esistono ambienti detti semidinamici, nei quali l'ambiente stazionario, ma il passare del tempo importante per la valutazione della prestazione (si pensi al gioco degli scacchi con l'orologio).
a:
Se l'ambiente evolve nel tempo, viene detto ''dinamico'' e nella progettazione dell'agente ci si preoccupare dello ''scorrere del tempo''. Se invece l'ambiente non varia con il tempo, viene detto stazionario o statico. Esistono ambienti detti ''semidinamici'', nei quali l'ambiente stazionario, ma il passare del tempo importante per la valutazione della prestazione (si pensi al gioco degli scacchi con l'orologio).
Aggiunte le linee 62-63:
Se l'ambiente deterministico e multiagente, si dice che ''strategico''.
Modificata la linea 71: da:
Il modello simple reflex agent agisce sulla base di un insieme di regole condizione->azione. La percezione viene acquisita e interpretata, senza tener conto della precedente storia delle percezioni. Sulla base dell'interpretazione viene scelta una regola che viene applicata producendo l'azione.
a:
Il modello simple reflex agent ''agisce sulla base di un insieme di regole condizione->azione''. La percezione viene acquisita e interpretata, senza tener conto della precedente storia delle percezioni. Sulla base dell'interpretazione viene scelta una regola che viene applicata producendo l'azione.
Modificata la linea 74: da:
Per ridurre l'incertezza/incompletezza del mondo esterno, questo tipo d'agente tiene una rappresentazione interna, un modello appunto, dell'ambiente.
a:
Per ridurre l'incertezza/incompletezza del mondo esterno, ''questo tipo d'agente tiene una rappresentazione interna, un modello appunto, dell'ambiente''.
Modificata la linea 82: da:
Questo tipo di modello aggiunge al precedente la definizione dell'obiettivo da raggiungere: non detto che un agente necessiti sempre di un obiettivo da raggiungere. L'obiettivo di tipo ''binario'', ovvero che presentare solo due valori, ''raggiunto'' o ''non raggiunto''.
a:
Questo tipo di modello aggiunge al precedente la ''definizione dell'obiettivo da raggiungere'': non detto che un agente necessiti sempre di un obiettivo da raggiungere. L'obiettivo di tipo ''binario'', ovvero che presentare solo due valori, ''raggiunto'' o ''non raggiunto''.
Modificata la linea 94: da:
* critic, che produce un feedback sui risultati ottenuti dall'agente rispetto a dei risultati desiderati
a:
* critic, che produce un ''feedback'' sui risultati ottenuti dall'agente rispetto a dei risultati desiderati
Modificata la linea 1: da:
!A3_1 Agenti
a:
!A3_1 Agenti [BOZZA]
10/10/2006 ore 11:06 CEST di Andrea - Contenuti ok, revisione tipografica
Modificate le linee 91-92: da:
* learning element
a:
* learning element, utilizza il feedback di critic per modificare l'agente
* problem generator: propone dei problemi che permettano di estendere le dell'agente
10/10/2006 ore 11:03 CEST di Andrea - Salvataggio intermedio, manca poco
Aggiunta la linea 11:
Non detto che l'azione sia necessariamente fisica: potrebbe trattarsi semplicemente di fornire un'interpretazione di un processo, lasciando ad un umano la decisione finale sull'azione da intraprendere.
Modificate le linee 67-68: da:
a:
Il modello simple reflex agent agisce sulla base di un insieme di regole condizione->azione. La percezione viene acquisita e interpretata, senza tener conto della precedente storia delle percezioni. Sulla base dell'interpretazione viene scelta una regola che viene applicata producendo l'azione.
Lavorare solo su come appare l'ambiente al momento dell'acquisizione implica che l'ambiente sia completamente osservabile: questo riduce enormemente le di impiego di agenti di questo tipo. Esempi di agenti simple reflex sono le regole euristiche (ad esempio la diagnosi che si trova in fondo ai manuali degli elettrodomestici, "''Se'' la lavatrice non si accende, ''allora'' controlla se la spina collegata correttamente").
Modificate le linee 70-76: da:
a:
Per ridurre l'incertezza/incompletezza del mondo esterno, questo tipo d'agente tiene una rappresentazione interna, un modello appunto, dell'ambiente.
Questo modello viene aggiornato tenendo conto:
* dello stato attuale del modello
* delle percezioni (e della loro storia)
* di alcune leggi che regolano l'ambiente
* delle conseguenze delle azioni
Modificate le linee 78-81: da:
a:
Questo tipo di modello aggiunge al precedente la definizione dell'obiettivo da raggiungere: non detto che un agente necessiti sempre di un obiettivo da raggiungere. L'obiettivo di tipo ''binario'', ovvero che presentare solo due valori, ''raggiunto'' o ''non raggiunto''.
L'agente , attraverso funzioni di ''search'' e ''planning'', per determinare la sequenza di azioni per raggiungere l'obiettivo.
Questo implica che prima di attuare azioni, l'agente essere in grado di valutarne le conseguenze relativamente all'obiettivo ed eventualmente correggere l'azione (una sorta di retroazione).
Aggiunte le linee 83-91:
Questo modello un ulteriore sofisticazione del precedente: invece di usare una rappresentazione binaria dell'obiettivo, prevede l'uso di una ''funzione d''', che fornisce una prestazione generale di prestazione.
Questa complicazione permette di lavorare in situazioni in cui due o obiettivi siano in conflitto o che non possano essere raggiunti con certezza (ad esempio in ambienti incerti o incompleti).
Prima di intraprendere l'azione viene calcolata tale funzione.

!!Learning agent
Ognuno dei tipi precedenti di agenti essere anche un learning agent. Un learning agent ha un'architettura composta dai seguenti blocchi:
* performance element, che uno degli agenti appena visti
* critic, che produce un feedback sui risultati ottenuti dall'agente rispetto a dei risultati desiderati
* learning element
10/10/2006 ore 00:20 CEST di Andrea - Da finire (con calma :D)
Aggiunte le linee 55-71:
!!!Agente singolo/multiagente
Nello stesso ambiente possono agire uno o agenti: l'ambiente essere competitivo, parzialmente cooperativo o cooperativo.
In un ambiente con agenti bisogna tenere conto della comunicazione, della cooperazione e dei conflitti.

La soltamente parzialmente osservabile, stocastica, sequenziale, dinamica, continua e multiagente.

!!Tipi di agenti
!!!Table driven
Sono agenti basati su una tabella che associa le percezioni alle azioni che devono essere intraprese. Questo tipo di tecnica comporta un crescere esponenziale delle righe della tabella al crescere degli ingressi.

!!!Simple reflex

!!!Model based reflex

!!!Model based goal-based

!!!Model based utility-based
09/10/2006 ore 21:36 CEST di Andrea - Prima scrittura (incompleta)
Aggiunte le linee 1-54:
!A3_1 Agenti
'''Autore:''' [[Profiles.Andrea|Andrea Rota]]

->'''Sommario'''


!!Il concetto di agente
L'IA lavora in svariati campi, storicamente molto frammentati e separati dalle altre discipline. Si pensi ad esempio alla ricerca automatica, alla pianificazione e all'apprendimento automatico.
Da questa separazione nasce l'esigenza di una visione unificante: essa coincide con il concetto di '''agente'''.



!!Le prestazioni dell'agente
Le prestazioni di un agente valutano il suo comportamento nell'ambiente. Fra esse compaiono:
* Tempo di risposta
* Correttezza della soluzione




L'agente agisce in un contesto di:






!!Progettazione di un agente
Progettare un agente significa sostanzialmente definire:
* Ambiente
* Sensori
* Attuatori
* Funzione dell'agente
* Misura della prestazione

!!L'ambiente
L'ambiente determina in modo fondamentale il progetto dell'agente. Vediamo un'insieme di classificazioni dell'ambiente:




!!!Ambiente deterministico/stocastico

In ogni caso si considera la visione che l'agente ha del sistema.

!!!Ambiente episodico/sequenziale


!!!Ambiente statico/dinamico


!!!Discreto e continuo
Si parla di discreto e continuo relativamente allo stato dell'ambiente, al trattamento del tempo, alle percezioni e alle azioni.
Modifica - Versioni - Stampa - Modifiche recenti - Cerca
Ultima modifica il 22/08/2007 ore 13:44 CEST