Horoscope

La settimana scorsa ho fatto qualche sperimento con alexa. In particolare ho implementato una semplice applicazione Oroscopo e ho documentato con un video l’anomalo risultato.

Ho deciso pertanto di fare un ulteriore tentativo, con la speranza che stavolta andrà meglio. Dunque, visto che al primo tentativo mancavano le API che fornivano l’oroscopo, ho implementando un servizio che gestisce le richieste provenienti da alexa. Tale applicativo software è disponibile su GitHub e si chiama Horoscope.

Come tecnologie abbiamo sempre Spring Boot, Hibernate, Liquibase, MySQL. Le API di horoscope verranno messe a disposizione di alexa. Probabilmente implementerò una applicazione web che servirà per quel utente che si occuperà del caricamento e modifica delle previsioni.

A livello di DB, abbiamo una semplice relazione composta da 3 tabelle. Il prefisso TC_ indica tabella dati, mentre il prefisso TP_ indica che stiamo parlando di una tabella di disegno. Lato hibernate abbiamo 3 entities che rappresentano le 3 tabelle.

Per ciò che concerne l’architettura abbiamo due container docker: l’applicazione stessa e il DBMS.

Esecuzione del progetto per sviluppo software

Per far partire il progetto è necessario fare un

mvn clean install

con maven. Poi bisogna far partire MySQL, per questo bisognerà eseguire

sudo docker-compose up -d

nella root del progetto.

Infine in eclipse bisognerà eseguire Horoscope come progetto Spring Boot.

Dockerizzazione

Il progetto può essere dockerizzato. Ho creato il Dockerfile nella root del progetto.
Per preparare il jar (verrà creato un jar nella directory target dopo il mvn package):

mvn clean package

Per buildare un’immagine docker è necessario aprire il terminale nella root del progetto ed eseguire:

docker build --tag=horoscope:latest .

Per far partire il container invece, quindi il progetto:

docker run -d -p8080:8080 --network=host horoscope:latest

Verifica funzionamento

Chiamare con Postman l’endpoint http://localhost:8080/horoscope/sign/${IL_TUO_SEGNO} per recuperare qualche informazione.

Voglio ricordare che per togliere i rossi in eclipse è necessario installare lombok. Pertanto scaricare e avviare il jar lombok (sudo java -jar lombok.jar) e successivamente installare il plugin in eclipse.

Integrazione con alexa

Per poter interagire con alexa è necessario sostituire il file JSON del JSON Editor in Build, Interaction model, con il seguente contenuto:

{
    "interactionModel": {
        "languageModel": {
            "invocationName": "oroscopo demo",
            "intents": [
                {
                    "name": "AMAZON.CancelIntent",
                    "samples": []
                },
                {
                    "name": "AMAZON.HelpIntent",
                    "samples": []
                },
                {
                    "name": "AMAZON.StopIntent",
                    "samples": []
                },
                {
                    "name": "HelloWorldIntent",
                    "slots": [],
                    "samples": [
                        "ciao",
                        "come stai",
                        "dì ciao",
                        "salutami",
                        "salutarmi"
                    ]
                },
                {
                    "name": "AMAZON.NavigateHomeIntent",
                    "samples": []
                },
                {
                    "name": "RispostaIntent",
                    "slots": [
                        {
                            "name": "segno",
                            "type": "AMAZON.SearchQuery"
                        }
                    ],
                    "samples": [
                        "sono del segno del {segno}",
                        "io sono del {segno}",
                        "Il mio segno è {segno}",
                        "Sono del {segno}",
                        "Io sono del segno del {segno}",
                        "Il mio segno zodiacale è {segno}"
                    ]
                }
            ],
            "types": []
        }
    }
}

Mentre il file index.js del tab Codice dovrà contenere il seguente codice:

/* *
 * This sample demonstrates handling intents from an Alexa skill using the Alexa Skills Kit SDK (v2).
 * Please visit https://alexa.design/cookbook for additional examples on implementing slots, dialog management,
 * session persistence, api calls, and more.
 * */
const Alexa = require('ask-sdk-core');
const http = require('http');

const LaunchRequestHandler = {
    canHandle(handlerInput) {
        return Alexa.getRequestType(handlerInput.requestEnvelope) === 'LaunchRequest';
    },
    handle(handlerInput) {
        const speakOutput = 'Benvenuto!?';

        return handlerInput.responseBuilder
            .speak(speakOutput)
            .reprompt(speakOutput)
            .getResponse();
    }
};

const HelpIntentHandler = {
    canHandle(handlerInput) {
        return Alexa.getRequestType(handlerInput.requestEnvelope) === 'IntentRequest'
            && Alexa.getIntentName(handlerInput.requestEnvelope) === 'AMAZON.HelpIntent';
    },
    handle(handlerInput) {
        const speakOutput = 'You can say hello to me! How can I help?';

        return handlerInput.responseBuilder
            .speak(speakOutput)
            .reprompt(speakOutput)
            .getResponse();
    }
};

const CancelAndStopIntentHandler = {
    canHandle(handlerInput) {
        return Alexa.getRequestType(handlerInput.requestEnvelope) === 'IntentRequest'
            && (Alexa.getIntentName(handlerInput.requestEnvelope) === 'AMAZON.CancelIntent'
                || Alexa.getIntentName(handlerInput.requestEnvelope) === 'AMAZON.StopIntent');
    },
    handle(handlerInput) {
        const speakOutput = 'Goodbye!';

        return handlerInput.responseBuilder
            .speak(speakOutput)
            .getResponse();
    }
};
/* *
 * FallbackIntent triggers when a customer says something that doesn’t map to any intents in your skill
 * It must also be defined in the language model (if the locale supports it)
 * This handler can be safely added but will be ingnored in locales that do not support it yet 
 * */
const FallbackIntentHandler = {
    canHandle(handlerInput) {
        return Alexa.getRequestType(handlerInput.requestEnvelope) === 'IntentRequest'
            && Alexa.getIntentName(handlerInput.requestEnvelope) === 'AMAZON.FallbackIntent';
    },
    handle(handlerInput) {
        const speakOutput = 'Sorry, I don\'t know about that. Please try again.';

        return handlerInput.responseBuilder
            .speak(speakOutput)
            .reprompt(speakOutput)
            .getResponse();
    }
};



const RispostaIntentHandler = {
  canHandle(handlerInput) {
    return handlerInput.requestEnvelope.request.type === 'IntentRequest'
      && handlerInput.requestEnvelope.request.intent.name === 'RispostaIntent';
  },
  handle(handlerInput) {
    const slots = handlerInput.requestEnvelope.request.intent.slots;
    const segno = slots['segno'].value;

    const speechText = `Provo a vedere cosa trovo oggi a proposito del segno del ${segno}.`
   
   let speakOutput = '';
   let repromptOutput = '';
    getHttp('https://dodu.it:8080/horoscope/sign', segno).then(response => {
        speakOutput += " " + response;
        return handlerInput.responseBuilder
            .speak(speakOutput + repromptOutput)
            .reprompt(repromptOutput)
            .getResponse();
    }).catch(error => {
        console.log('Error with HTTP Request:', error);
        repromptOutput = "";
        return handlerInput.responseBuilder
            .speak(`Opps, la cosa non mi quadra ${segno}. ${repromptOutput}`)
            .reprompt(repromptOutput)
            .getResponse();
    });



    return handlerInput.responseBuilder
      .speak(speechText)
      .withSimpleCard('Cosa ho imparato', speechText)
      .getResponse();
  },
};

const getHttp = function(url, query) {
    return new Promise((resolve, reject) => {
        const request = http.get(`${url}/${query}`, response => {
            response.setEncoding('utf8');
           
            let returnData = '';
            if (response.statusCode < 200 || response.statusCode >= 300) {
                return reject(new Error(`${response.statusCode}: ${response.req.getHeader('host')} ${response.req.path}`));
            }
           
            response.on('data', chunk => {
                returnData += chunk;
            });
           
            response.on('end', () => {
                resolve(returnData);
            });
           
            response.on('error', error => {
                reject(error);
            });
        });
        request.end();
    });
}


/* *
 * SessionEndedRequest notifies that a session was ended. This handler will be triggered when a currently open 
 * session is closed for one of the following reasons: 1) The user says "exit" or "quit". 2) The user does not 
 * respond or says something that does not match an intent defined in your voice model. 3) An error occurs 
 * */
const SessionEndedRequestHandler = {
    canHandle(handlerInput) {
        return Alexa.getRequestType(handlerInput.requestEnvelope) === 'SessionEndedRequest';
    },
    handle(handlerInput) {
        console.log(`~~~~ Session ended: ${JSON.stringify(handlerInput.requestEnvelope)}`);
        // Any cleanup logic goes here.
        return handlerInput.responseBuilder.getResponse(); // notice we send an empty response
    }
};
/* *
 * The intent reflector is used for interaction model testing and debugging.
 * It will simply repeat the intent the user said. You can create custom handlers for your intents 
 * by defining them above, then also adding them to the request handler chain below 
 * */
const IntentReflectorHandler = {
    canHandle(handlerInput) {
        return Alexa.getRequestType(handlerInput.requestEnvelope) === 'IntentRequest';
    },
    handle(handlerInput) {
        const intentName = Alexa.getIntentName(handlerInput.requestEnvelope);
        const speakOutput = `You just triggered ${intentName}`;

        return handlerInput.responseBuilder
            .speak(speakOutput)
            //.reprompt('add a reprompt if you want to keep the session open for the user to respond')
            .getResponse();
    }
};
/**
 * Generic error handling to capture any syntax or routing errors. If you receive an error
 * stating the request handler chain is not found, you have not implemented a handler for
 * the intent being invoked or included it in the skill builder below 
 * */
const ErrorHandler = {
    canHandle() {
        return true;
    },
    handle(handlerInput, error) {
        const speakOutput = 'Sorry, I had trouble doing what you asked. Please try again.';
        console.log(`~~~~ Error handled: ${JSON.stringify(error)}`);

        return handlerInput.responseBuilder
            .speak(speakOutput)
            .reprompt(speakOutput)
            .getResponse();
    }
};

/**
 * This handler acts as the entry point for your skill, routing all request and response
 * payloads to the handlers above. Make sure any new handlers or interceptors you've
 * defined are included below. The order matters - they're processed top to bottom 
 * */
exports.handler = Alexa.SkillBuilders.custom()
    .addRequestHandlers(
        LaunchRequestHandler,
        RispostaIntentHandler,
        HelpIntentHandler,
        CancelAndStopIntentHandler,
        FallbackIntentHandler,
        SessionEndedRequestHandler,
        IntentReflectorHandler
        )
    .addErrorHandlers(
        ErrorHandler)
    .withCustomUserAgent('sample/hello-world/v1.2')
    .lambda();

Se siete in possesso di un alexa, oltre a poter testare la nuova skill tramite l’interfaccia web, si può usare il prorpio dispositivo alexa.

Dopo la scrittura del progetto da zero durata una giornata il risultato del mio oroscopo di oggi è il seguente:

Direi che già va meglio.