Pedagogik och big data

Hypocampus tar steget in i framtiden och börjar med machine learning. Viljan har funnits men först nu har vi hittat rätt samarbetspartners. Tillsammans med forskare från chalmers kommer vi nu börja slänga oss med termer som Big data, Machine learning, Data mining och Learning analytics. Men vad betyder alla dessa termer?

Ju mer läroaktiviteter som flyttar ut i cyberspace desto mer data skapas. Varenda klick, intervall mellan klick, scrollning mm. kan användas för att dra slutsatser om användare. I pedagogiska sammanhang kan denna data användas för att försöka bättre förstå och förbättra lärandeprocessen. Datainhämtning och dataanalys används även allt mer av olika företag för att generera business intelligens för att förbättra beslutsfattandet. Inom högre utbildning har man under en tid använt databearbetning från digitala verktyg för att försöka förstå och anpassa utbildningssystem efter studenternas förmåga. T.ex. för att förbättra långtidsinlagring av inlärda kunskaper.

Om man jämför utbildningsmjukvara med underhållningsmjukvara, t.ex. Spotify eller Netflix så finns det fortfarande en bit kvar vad gäller att använda sig av applicerad dataanalys för att kunna förutsäga vilken typ av informationskälla som skulle kunna passa en specifik student bäst för att lära sig en specifik ny kunskap. Anledningarna till varför utbildningsmjukvaruutvecklingen inte nått lika långt vad gäller kundnöjdhet i förhållande till rekommendationer kan bero på flera variabler där man kan tänka sig att storleken på den minsta enheten (t.ex en låt i Spotify eller en film eller ett avsnitt av en serie på Netflix) spelar roll. Även användares subjektiva förmåga att bedöma en enhets värde. Man kan t.ex. tänka sig att det är lättare att bedöma om man tyckte att en låt var bra eller dålig då musiksmak är någonting uppenbart subjektivt. Medan att bedöma utbildningsvärdet i ett videoklipp eller ett textstycke kan upplevas som svårare då det potentiellt sätt skulle kunna krävas en högre utbildningsnivå inom det specifika området för att både kunna bedöma innehållets kvalitet (stämmer verkligen faktan?) samt presentationsformen (finns det något lättare sätt att förklara detta utan att missa väsentliga fakta?).

I takt med att big data, datainsamling och machine learning blivit populära begrepp så kan det finnas en poäng med att särskilja det man idag faktiskt kan göra från det som fortfarande kan liknas mer vid science fiction. Big data är kanske det populäraste av alla dessa begrepp och kanske används så flitigt just för att det mer eller mindre saknar definition. Big data används för att beskriva datamängder som överstiger de mängder som normalt sett kan hanteras av en databasmjukvara. Det betyder att den exakta storleken från början är vagt definerad och dessutom hela tiden förändras över tid (i takt med att en vanlig databas kan hantera allt större informationsmängder). Ett annat generellt begrepp som används allt mer är machine learning. Machine learning är ett begrepp som används om hantering av data. Efter att ha samlat in stora mängder data kan man dra slutsatser om populationen som gett upphov till datan. Genom att sätta upp formler som kan förhålla sig till tidigare insamlad data och värdera och sortera nya datapunkter utifrån denna ”äldre” data (något förenklat) kan en mjukvara dra slutsatser om en användare utifrån hens beteende. Formlerna kan dessutom bli mer och mer exakta när även denna nya data används för att göra referensbiblioteket ännu större. Detta kallas Machine learning.

Två andra begrepp som används är Educational data mining och Learner analytics. Begreppen kan särskiljas på så sätt att data mining används för att försöka utveckla nya program och appar utifrån insamlad data (vilka användarbeteenden finns och hur skulle man kunna bygga funktionalitet för att lära ut något i förhållande till dessa beteenden). Learner analytics fokuserar sedan på att använda sig av kända prediktiva algoritmer och hur man kan använda sig av dessa för att öka lärandet, dock fortfarande utifrån ett kvantitativt perspektiv. Dessa begrepp är dock relativt luddiga och kan på många sätt gå in i varandra.

En del av Data mining är User modeling. User modeling går ut på att skapa en bild av specifika användare utifrån deras klickvanor och beteende i ett digitalt läromedel. Man kan då dra slutsatser angående vad en användare kan och inte kan. Vad som fungerar som motiverande krafter på användaren och hur tillfredställd användaren är med mjukvarans funktionalitet. Datan hämtas live och i bästa fall kan även feedback ges till användaren utifrån användarbeteendet live.

Användarbeteendet kan även användas till att segmentera användarna utifrån specifika egenskaper. Grupperna som användarna delas in i kan då leda till att de olika grupperna kan få anpassat läromaterial utifrån förväntade önskemål. För att kunna göra denna typ av content-anpassning krävs ofta relativt komplicerade algoritmer som tar hänsyn både till läromaterialets kvalitet och kvantitet samt presentationsformen mm. En vanligare och simplare form av dataanvändning som inte kräver applicering av insamlad data är att visa statistik över användarbeteendet för en lärare som på så sätt kan dra slutsatser om sina elevers progress och särskilda behov för att kunna göra insatser där det behövs.

Målet för Hypocampus är att använda all data vi kan få tag i för att maximera lärandet per investerad tidsenhet för varje enskild användare. Beroende på användarens specifika egenskaper vad gäller läshastighet och minnesförmåga skall presentationen av material anpassas. Detta, för att introducera en sista term i inlägget, är det som kallas adaptivt lärande.

Over and out

Elias

Leave a Reply

Your email address will not be published. Required fields are marked *