Epubs uit Dropbox lezen op je tablet

2 Reacties

Iedereen roemt de gebruiksvriendelijkheid van de i-dingetjes van het bekende fruitmerk, maar ik heb er wat meer moeite mee.
Laatst was ik weer op zoek: hoe open je ook alweer een epub op een Apple gadget vanuit Dropbox?
(Ik heb nl net een nieuwe iPod waarover later meer)

Het is niet moeilijk meer een weetje dat ik had vergeten.
Allereerst moet de iBooksapp erop zijn geïnstalleerd.
Maar dan nog weet  je apparaatje niet wat hij moet doen als je een epub aanklikt in je Dropbox map:

Epubs via Dropbox (1)

Hoezo can’t be viewed? Je hebt ibooks toch?

Maar je ziet dat vierkantje met dat pijltje linksonder?
Als je daarop klikt krijg je deze:

Epubs via Dropbox (2)

 

… en dan klik je ‘Open in iBooks‘ aan.
Dan komt hij op je boekenplankje en kun je de titel wel lezen.

Zoals gezegd: ‘t is even een weetje, maar eigenlijk zou je i-dingetje t ook moeten weten …

De Android doet t een fractie beter: als je daar tenminste een ereader op hebt geïnstalleerd.
Dubbelklik je dan op een epub dan krijg je deze vraag:

2014-06-15 19.09.20

 

Leuk boek trouwens

De eerste week koken en eten via HelloFresh deel 2

Laat een reactie achter

Over de eerst drie dagen van de belevenissen heb ik verslag gedaan in deel 1.

De laatste twee dagen nog even vermelden:

Dag 4: Libanees platbrood met falafel en Turkse yoghurt

De onderdelen:

HelloFresh w22 platbrood m falafel wordt

HelloFresh w22 platbrood m falafel (4)  HelloFresh w22 platbrood m falafel

 

Platbrood kende ik niet, falafelballetjes had ik weleens gegeten maar nooit zelf gebakken.
Het was erg lekker, aanvankelijk had ik een derde deel van het falafel deeg achter gehouden, maar die toch maar gebakken en het is opgegaan.

Anderhalf platbrood is over -er zaten er 5 in een pakje- 3/4 komkommer, een tomaat en veel sla, komt wel op verder in de week.
Helaas heeft B met het opruimen ook het restje uitgeperste citroen weggegooid : had ik willen invriezen. Och ja.

Een succes dit.

Dag 5: Frisse salade met warme geitenkaas, pecannoten en gebakken krieltjes.

De onderdelen

HelloFresh w22 geitenkaas met krieltjes (1) wordt HelloFresh w22 geitenkaas met krieltjes (2)

Ook hier weer: alles behalve de essentiële zaken (geitenkaas en pecannoten) een derde minder.

De krieltjes zien er wat donker uit, maar ze waren prima. (Even was ik bang dat ik ze moest schrappen, maar dat hoeft blijkbaar niet).
Dit was echt ERRUG lekker, een topper!
Ook weer zo’n gerecht waarvan je dan verbaasd bent dat je dat zelf gemaakt hebt …

Al met al: heel tevreden.

Zoals ik in deel 1 al zei: het is gevarieerd, het is verrassend, niet moeilijk klaar te maken en plezierig dat je de boodschappen thuis bezorgd krijgt.

Dit is echt wat voor ons, we kijken uit naar de doos van de volgende week ;-) .

 

 

 

De eerste week koken en eten via HelloFresh deel 1

1 Reactie

Het is een beetje off-topic voor deze blog, maar ik wilde toch verslag doen van mijn ervaringen met HelloFresh.
Ik ben waarschijnlijk Neerlands minst geïnspireerde kok, ik hou van boeken, maar kijk NOOIT een kookboek in. Ik hou wel van lekker eten (niet van fastfood of kant en klaar),  maar niet bijzonder van koken:  heb het nooit geleerd en heb ook geen zin om me erin te verdiepen dus als ik aan mezelf ben overgelaten, eten we elke week zo’n beetje hetzelfde, en dat is saai …

Een aantal jaren maakten we met genoegen gebruik van de groente- en fruitpakketten van Odin: biologisch, vers en met recepten erbij.
Aanvankelijk waren die erg goed: eenvoudig te maken maar wel zo mooi -en lekker- dat je versteld stond van wat jezelf had gemaakt! En vaak ook groenten die jezelf niet zo gauw zou kopen: pastinaak, schorseneren en zo.
Jaren hebben we dat gedaan.

Maar in de loop van de tijd werden de recepten lastiger en ingewikkelder, met toevoegingen waar je maar weinig van nodig had en die je verder nooit gebruikt,  de kwaliteit werd wat minder,  -en veel te veel kool naar mijn zin- bovendien was de natuurvoedingswinkel in de buurt dichtgegaan, waardoor het logistiek lastig werd. Dus weer een hele tijd zelf boodschappen doen in de supermarkt, maar verder dan prei en witlof kom ik amper.

Tot ik vorige week achter HelloFresh kwam: dat is de Nederlandse tak van een internationale organisatie die een doos boodschappen met recepten bij je thuis bezorgt. De hoeveelheden zijn afgestemd op het aantal personen dat je hebt aangegeven (1-4)  en het aantal maaltijden waarop je je wilt abonneren (3 of 5).

Je kunt eerst een proefbox nemen, maar ik ben meteen in t diepe gesprongen met 5 maaltijden voor twee personen.
3 dagen tevoren komt er een mail met de aankondiging van de bezorgtijd, en op de dag zelf nog een SMSje daarover:  en ze kwamen stipt op tijd.

De doos komt op maandag aan het einde van de middag, dat komt ons goed uit.
Afgelopen maandag kwam de eerste: leuk uitpakken zo’n hele doos boodschappen!  Met grappige kleine zakjes kruiden en peccannoten bijv,  maar ook vlees en vis:  gelukkig goed gekoeld. Meteen van alles uitgeladen en opgeborgen.

Het receptenboekje geeft ook de volgorde aan, in verband met de houdbaarheid van de spullen.
Ja hoor, doen we, ben allang blij dat iemand dat bedenkt.

Dag 1: Linguine met kippendijfilet en tomatensaus.

De onderdelen:

HelloFresk w 22 linguine kip wordt: HelloFresh w 22 Linguine kip

Linguine kende ik niet: bleek een soort spaghetti te zijn.

Het maken kostte ongeveer een half uurtje en het was eigenlijk best lekker. Kippendijfilet mag van mij ook gewoon kipfilet zijn, maar ok.
Alleen zijn de hoeveelheden veel te groot voor ons: wij zijn maar kleine eters, voortaan dus van die basis ingrediënten (rijst, aardappels, linguine en zo)  maar de helft nemen.
Je houdt ook spullen over: van de bos bleekselderij hadden we 4 stengels nodig, en van de peen maar de helft. Maar die komen wel op met tussendoortjes ;-) .

 

Dag 2: Kabeljauw met lentestampport van waterkers en zoete bospeen

HelloFresh w 22 Waterkersstampot kabeljauw wordt HelloFresh w 22 Waterkersstamport met kabeljauw

 

Wijs geworden nam ik maar 3 van de 6 bildstar aardapelen.
Van de bos worteltjes zou ik er 6 moeten nemen, maar 4 leek me ook genoeg en dat was ook zo. B. was zeer te spreken over de wortels: daar moest een schepje honing bij (braaf gedaan) . (Onthouden dus, al vrees ik dat dit soort dingen niet in mijn hoofd blijven zitten).
Achteraf had een halve rode ui ook voldoende geweest: dit was een knoeperd.
B. vond het wel lekker, ik niet zo: veel te grof die waterkers, rauwe andijviestamppot is lekkerder. Dit viel een beetje tegen dus.

Ook flink wat peterselie en lenteui over trouwens, maar die komen verderop in de week weer terug in de recepten.

Dag 3 Boterrijst met oosterse kogelbiefstukreepjes,mango en sugarsnaps

HelloFresh w 22 Biefstuk met mango (1) wordt  HelloFresh w 22 Biefstuk met mango (2)

 

Ik heb iets stoms gedaan met de boterrijst: die was totaal niet gaar geworden zo, dus maar weggekieperd en alleen de biefstuk met saus gegeten.
Die was best pittig geworden met een halve rode peper en een halve gember.
De mango was echt heerlijk! We hadden maar een halve nodig, maar de andere helft gewoon als bijgerecht gegeten.

Over dus een halve rode peper, 80 gram zilvervliesrijst.

Tot nu toe positief:

  • leuk om verrast te worden met wat je gaat eten,
  • fijn dat je het bezorgd krijgt,
  • grotere variatie is nooit weg,
  • recepten zijn goed te doen: redelijk snel te bereiden (30-40 min)  en niet moeilijk

Wordt vervolgd met de ervaringen van morgen en overmorgen

 

 

 

 

Gastblog: Verslag VOGIN-IP lezing op 20-3-2014

Laat een reactie achter

Gastblogpost door Sandra Wullms:

VOGIN-IP Lezing: Zoeken en vinden 2014  (20 maart 2014, Amsterdam)

Het complete programma van deze dag is hier te vinden.

Als eerste heb ik de workshop gevolgd van: Marydee Ojala Web search update: What’s new that effects Information Professionals

Achtergrond info Marydee Ojala:

Marydee Ojala is de redacteur van Online Searcher (successor of the magazines Online + Searcher) en schrijft hierin de business research column (“The Dollar Sign”).

Over haar presentatie: “Reflections on the reinvention of research”
Online informatie is er nu al ruim 40 jaar. Het waren vier decennia van opwindende en nieuwe ontwikkelingen die onderzoek hebben getransformeerd, de mentaliteit van bibliothecarissen/esses veranderd, de verbeelding van de mensen hebben geprikkeld en toegang hebben gegeven tot informatie die voorheen niet toegankelijk was. Deze workshop inzicht geven in de aard van zoeken op het web in tegenstelling tot traditionele online zoeken, onderzoeken wanneer te kiezen voor een betaalde database t.o.v. gratis zoekactie op het web, en kijken naar de nieuwste ontwikkelingen van online onderzoek.

Hieronder enkele korte notities en tips uit haar workshop.

Websearches worden beïnvloed door het land van waaruit je zoekt.
Het beperkt zich ook niet meer alleen tot HTML, maar ook afbeeldingen, video’s, PDF’s etc. worden in de zoekresultaten meegenomen.

Van zoekacties uitgesloten zijn:

  • het zgn. invisible of deep Web
  • Editorially blocked (Robots.txt, files die aangeven in hoeverre een site door zoekmachines doorzocht mogen worden)
  • Proprietary data (data die niet vrij toegankelijk zijn, maar eigendom zijn van iets/iemand)

Hoe kun je je zoekresultaten beïnvloeden?

  • Verander de voorkeuren/preferences (bv. de taal)
  • Gebruik andere zoekmachines, bv. Millionshort.com
  • Site search (zoeken binnen een site):
  • Gebruik google om binnen een site te zoeken. Geef de zoekterm in met daarachter [site], bv. crash tests [tno.nl]
  • Advanced search

Verschillende typen zoekmachines:
algemene en computational (geeft feiten/data en geen links), alternatieve zoek machines (w.o. scholarly)

Algemene

  • Google (Google is niet beschikbaar in Rusland, Japan, Zuid-Korea en China. Google reageert op veranderingen in je locatie en op sociaal- en persoonlijk-gebied).
    http://www.google.com/ncr Een alternatief web adres voor Google.com dat ervoor zorgt dat je altijd op .com terecht komt zonder redirecting
  • Bing (Yahoo)
  1. Landen versies (minder dan Google)
  2. Meer sub-sites listings
  3. In corporate IE-10
  4. Connecties met FB/Social Media (zoekt hierin en neemt dit op in de resultaten)
  5. Beschikbaar op de X-Box (game computer).
  6. Kaarten in Bing zijn soms beter
  1. Niet geïnteresseerd in tracking van persoonlijk info
  2. Om klant georiënteerde resultaten te krijgen moet je erom vragen! Blekko geeft dus (in tegenstelling tot Google) ongefilterde resultaten. Om meer te weten te komen over de standpunten van de liberalen en/of e conservatieven mbt de gezondheidszorg in America zul je dit dus aan moeten geven: Health politics liberal of Health politics conservatives.
  3. Gaan voor kwaliteit niet kwantiteit!
  4. Laten zoekresultaten zien gegroepeerd naar bepaalde thema’s. Bijvoorbeeld bij de gebeurtenis Tyfoon op de Philippijnen krijg je info te zien in blokken: News, info, video, etc.
  5. Search.blekko.com : Doorzoeken van Blekko kan met “slashtags”, dit is meer voor info pro’s (en zijn dus oorspronkelijk ook samengesteld door bibliothecarissen).
  1. Geen “bubble” (zoekresultaten worden niet opgeslagen, geen tracking).
  2. Gebruik exponentieel gegroeid sinds NSA’s Snowden affaire. DuckDuckGo verkoopt hun informatie niet aan de overheid.
  3. Je kunt met Google zoeken via DDG, je zou dan anoniem zoeken.
  1. Investeerder in Blekko
  2. Hoofdkantoor in Rusland/Nederland/vertegenwoordigd in USA (eigenaar Russisch).
  3. Yandex heeft “labs”, een vergelijkbare feature Google had om nieuwe tools te ontwikkelen.

Computational: Wolfram Alpha, Zanran (zoekmachine voor het zoeken van data/statitieken op het web).

Alternatieve platvormen om te zoeken w.o. Scholar platvormen:

Medisch: Pubmed, Patientslikeme.com

Overheid: De trend binnen de overheid is om steeds meer “open” te gaan. Worldbank.org, UN.org (Verenigde Naties).

 

Voorwerpen/afbeeldingen zoeken:

  • Tineye.com: zoeken op afbeelding voor als je bv. niet weet wat er afgebeeld wordt, wat iets is.
  • Bing image database: afbeeldingen filteren die ondersteund worden door creative comons licenses.

Tweets

  • Topsy: gearchiveerde tweets

LinkedIn : Heeft een nieuwe privacy policy, er schijnt samenwerking te zijn met zoekmachines.

Domaintools.com: zoeken naar de eigenaar van een site

 

Advanced search

Google had voorheen de mogelijkheid om een advanced search te doen. Deze mogelijkheid is er nog steeds maar zit nu een beetje verstopt: google.nl/advanced_search of klik na een zoekactie op de google pagina op het gear/instellingen wieltje.

Let er ook op om bij advanced search “betere” vragen te stellen. Door je trefwoorden in een andere volgorde in te geven krijg je ook andere zoekresultaten en kan het verschil zijn tussen wel en niet vinden wat je zoekt.

Syntax search werkt nog steeds bij Google (AND, OR, NOT)

  • Proximity searching (zoeken naar/met woorden die binnen een bepaalde afstand van elkaar staan):
  • Google’s AROUND commando werkt niet of niet goed, je kunt bij Google gebruik maken van proximity search door de woorden tussen haakjes () te zetten.
  • Exalead’s (zoekmachine) NEAR commando werkt beter. Exalead heeft een lab: Chromtik (zoeken op kleur)
  • Voxalead (zoeken op stem)
  • “Exact zoeken” (alles tussen aanhalingstekens plaatsen).
  • Let ook op het gebruik van cijfers in een zoekactie. 2 of Twee in de zoekactie leidt tot verschillende resultaten! Handiger is om ze beiden in de zoekactie te gebruiken.
  • Probeer de zgn. “filter bubble” te vermijden: zet je zoekgeschiedenis uit, en let op je voorkeursinstellingen (taal, land, etc.).

 

Nieuwste ontwikkelingen bij Google:

  • Voice search (engels)
  • Zoeken naar kennis, niet alleen naar documenten
  • Advanced search heeft geen prominente plaats meer
  • Veranderingen m.b.t. maps/streetview (waarvan men ook weer een groot aantal heeft terug gedraaid i.v.m. de storm aan commentaar/kritiek).
  • Zoeken op patenten (incl. tekeningen).
  • Indexeren van publieke data (bv. (open) data van overheid)
  • Google probeert ook de zoekresultaten te verbeteren door bv. advertenties meer op de laten vallen (deze staan vaak boven de zoekresultaten en werden vaak niet als dusdanig herkend. Vandaar dat men nu de tekst box ADD bij deze advertenties een opvallend geel kleurtje heeft gegeven).

Kennis initiatieven:

  • Inhoudelijk diepgaande artikelen (gebruikt niet de nieuwste/recente info).
  • Infographs (gebruikt o.a. Wikipedia).
  • Science : Open Access: enorm in opmars. Ook problemen met “nep” artikelen (Sting door John Bohanon; DOAJ keurde dit artikel goed)
  • Crowdsourcing Science: Wetenschap gebruikt niet wetenschappers om een bijdrage te leveren aan de wetenschap, bv. bij het identificeren van sterren.

 

Al met al een interessante lezing/workshop waar natuurlijk e.e.a. voorbij kwam wat de meeste van ons al weten, toch waren er ook veel leuke en interessante tips bij die wellicht nog van pas kunnen komen bij onze dagelijkse werkzaamheden. Van deze lezing is de getoonde PTT helaas niet beschikbaar.

 

Middagprogramma

  1. Marydee Ojala – Refections on the reinvention of research
  2. Prof. Dr. Maarten de Rijke – De autonome zoekmachine
  3. Antoine Isaac – Semantic Web, Linked Data: the Europeana case(s)
  4. Robert Jan Alting von Geusau – Enterprise search bij AkzoNobel
  5. Arno Reuser – Wat bedoelde u eigenlijk? Problemen rond de analyse van inlichtingenproducenten en de rol van informatie-professionals daarin

Voor het middagprogramma verwijs ik (ook) graag naar de presentaties: Link naar de PPT’s

  1. Presentatie Marydee Ojala – Reflections on the reinvention of research

Online is niet hetzelfde als het internet (www)! Online was er vóór het web.

 

Verleden:

Zoeken door professionals voor de komst van het internet.

Gisteren:

  • We (Info Pro’s) waren magiërs, klanten vroegen ons om alsjeblieft te vinden wat ze nodig hadden!
  • Niets was gratis (online databases).

Fundamentele veranderingen:

  • Personal Computing: PC’s
  • Zoeken verhuisd van mainframe’s naar desktop
  • Verwachtingen zijn gestegen
  • Formaten (bestandsformaten) zijn uitgebreid
  • Internet is een gemeengoed geworden

Vandaag:

  • Men verwacht dat de informatie vrij is
  • Snelle veranderingen
  • Self-Service
  • The filter bubble / Eli Pariser (TED-Talk!)

Het Web doorzoeken

  • Niet alleen onderwijzen in information literacy maar ook in (trans)media literacy(video/geluid)
  • Alles wordt gedigitaliseerd, wat doen we ermee?
  • Dark Corners/Dark web (illegaal internet etc.)

Betaald zoeken:  De verschuiving vindt plaats van betaald naar gratis:

  • Traditionele verkopers krijgen het moeilijk
  • Nieuwe platforms gebaseerd op Open Source
  • O.A.

Online morgen

  • Wearable technology
  • Augmented reality
  • Voorspellende analyses (de antwoorden ontstaan voor de vraag gesteld is)
  • Gesture technology (interpreteren van menselijk gedrag d.m.v. algoritmes) , post literature world?
  • Atomization of information (Wat is een boek/tijdschrift; formaten veranderen: de pagina in een e-boek is anders dan in gedrukte vorm.)
  • Kunstmatige intelligentie (Internet of things, je koelkast stuurt boodschappen lijstje naar leverancier)
  • Mobiele apparaten
  • Gesproken zoekacties

Wat is de toekomst van InfoPro’s en hun werkveld?:

  • Opnieuw uitvinden van onderzoek/zoeken
  • Wat verwachten/willen we van onze verkopers/leveranciers?
  • Vertrouwen: echt of nep (peer-reviewed!)

Een leuke presentatie met natuurlijk een groot gedeelte overlap met de workshop in de ochtend.

 

  1. Presentatie Maarten de Rijke – Autonome zoekmachine

Onderzoek naar het “ranken” van resultaten (algoritmes om de resultaten te ranken)

  •  Inhoud
  •  Structuur :    Documen /  Link structuur / Sociaal
  • Gedrag : interactieve data (Klik gedrag, doorklikken), impliciet vs expliciet
  • Synthese van rankers: samenvoegen van rankers, wat moet waar getoond worden.
  • Evaluatie rankers: offline verzamelen van queries, gebruiksstudie, online.

Ontwikkeling ranking: van supervised naar unsupervised (zelf lerende systemen).

Geen eenvoudige kost tijdens de presentatie. Ontwikkeling van algoritmes naar zelf-lerende/regulerende algoritmes zoals die bv. ook achter de zoekmachines draaien. Wel een zeer interessant thema aangezien we hier in de toekomst steeds meer mee te maken krijgen (denk hierbij ook aan alle ontwikkelingen rondom Big Data).

  1. Presentatie Antoine Isaac – Europeana en het Semantische Web

 

  • Europeana krijgt “meta-data” aangeleverd, niet de objecten zelf. Europeana is eigenlijk een distributiekanaal.
  • Men verzameld info van verschillende bronnen en legt verbanden (semantic).
  • Europeana en partners leveren open meta-data.

Europeana is een enorm project voor het borgen van het cultureel erfgoed in Europa. Hierbij wordt in feite deels ook gebruik gemaakt van Crowdfunding aangezien iedereen materiaal en info aan kan leveren bij dit project. Uitdaging is om ervoor te zorgen dat alles gestructureerd aangeboden wordt. Hierbij zijn alle verschillende talen binnen Europa een factor die het nog complexer maakt. Daarnaast heeft men ervoor gekozen om het project gefaseerd uit te rollen. Langzaam wordt alles (steeds complexer) opgebouwd. Een strategie die nu zijn vruchten begint af te werpen.

  1. Presentatie Robert-Jan Alting van Geusau (AkzoNobel) – Implementation of a Central Intelligence Web

Intelligence is binnen de Corporate Strategy ondergebracht als staf functie.

-          Welke info is waar nodig?
-          Hoe krijgen we de info daar?

Inventarisatie

-          Wat wordt waar gekocht?
-          Centraliseren
-          Uitsturen van alerts werd vaak dubbel gedaan (dus centraliseren en ontdubbelen)

Multidisciplinair team

-          Juristen
-          Communicatie
-          Researchtakken
-          IP-ers

 

Company visits gedaan (ontdekken van best practises)

Presentatie van leveranciers (o.a. Comintelli) van Intelligence Systems, hieruit werden er 2 geselecteerd.
-          Klein beginnen met mogelijkheid tot uitbreiding/groei.
-          Uiteindelijke keuze: geen grote leverancier, klein, geen core speler, maar meer mogelijk m.b.t. maatwerk.
-          Implementatie
-          One Intelligence

 

Inrichting achter Firewall.
Providers om medewerking gevraagd bij inlezen van info (LexisNexis, Dow Jones etc.).
Newsfeeds genereren verliep niet geruisloos.

Er zijn verschillende views voor verschillende takken/researchgroepen, toegespitst op de wensen van de betreffende groep.

Implementatie:
-          Presentatie aan management
-          SSO (Single Sign On) access, dus geen PW
-          Besparing door centrale inkoop en centraal beschikbaar stellen

 

Gebruikers genereren informatie, er wordt automatisch geclassificeerd.

 

Cruciaal: IT & risico analyse vóór een upgrade!
Software runnen op parallelle server gedurende de update.

Basis van het systeem is een taxonomie (3 niveau’s) die verder uitgesplitst wordt naar een taxonomie per tak/bedrijfsonderdeel.

Een erg interessante presentatie! Je zou hier nog wat info vandaan kunnen halen m.b.t. het centraal stroomlijnen van informatie!

  1. Arno Reuser – Wat bedoelde u eigenlijk? Problemen rond de analyse van inlichtingenproducenten en de rol van informatie-professionals daarin

Een lichte en luchtige presentatie ter afsluiting van deze VOGIN-IP dag. In deze presentatie kwamen meerdere hilarische voorbeelden voorbij rondom het verkeerd interpreteren van informatie met alle gevolgen van dien. Reuser gaf ook nog een “pep”-talk m.b.t. de kennis en kunde van “ons” als informatieprofessionals: we hebben kennis en we kunnen veel, dus niet altijd zo bescheiden zijn….

Al met al een interessante, leuke en leerzame dag!

http://vogin-ip-lezing.net/

 

Blendle : een elektronische kiosk

Laat een reactie achter

Kopen van losse artikelen uit Nederlandse kranten en tijdschriften is sinds kort mogelijk via Blendle.  Blendle is nu nog in beta  -komt 28 april 2014 live- maar je kunt je al aanmelden voor een toegang.
Voor de beta versie krijg je 2,50 cadeau om wat uit te proberen: dat is er aardig, en slim.

Dus maar eens proberen:  je meldt je aan, en je gegevens worden opgeslagen, in een database in Amerika ja … och ja.

Layout

De layout ziet er fris uit en is tamelijk eenvoudig:

blendle-volg

Dat rode puntje rechts wil zeggen dat er wat nieuws is neem ik aan: in de URL balk zie ik ook steeds een (1) of een (2) staan …

Je komt dus meteen in het ‘Delen’ gedeelte.

Bij het aanmelden heb je meteen een aantal volgers cadeau gekregen: die kun je gelukkig ook weer afmelden, maar voor de opzet heb je dat nodig denk ik, want je krijgt op het openingsscherm meteen gedeelde artikelen van je volgers in beeld en dan moet er wel wat te volgen zijn natuurlijk.
Als iemand een artikel deelt, kan deze een klein stukje (de bekende 140 karakters) erbij schrijven: je ziet wie het heeft gedeeld, wanneer dat was en desgewenst kun je het ‘liken’ door op t hartje te klikken.
Commentaar kun je er niet op geven verder.
Wil je het artikel lezen dan kun je het kopen: het bedrag staat rechtsboven naast de titel van de krant of het tijdschrift.

Je koopt het artikel door erop te klikken: een kind kan de was doen.

 

blendle-dl

 

De tweede tab is het Bladeren scherm:

blendle-pub

Ingedeeld in populair, kranten en tijdschriften.

Je krijgt de volledige covers in beeld en door op een van die covers te klikken open je de publicatie en kun je er doorheen bladeren.
Wil je iets lezen dan wijs je het met de pointer aan: je krijgt te zien wat het kost en door erop te klikken koop je het.
Bevalt het niet, of heb je per ongeluk geklikt, dan kun je het geld terugvragen: dat is heel netjes.
De prijzen variëren van 1ct voor een klein artikeltje tot 79ct voor een artikel uit VN bijvoorbeeld.
Ik was al snel gecharmeerd en heb er naast de gratis 2,50 meteen een tientje bijgezet.

Je scrolt tussen de verschillende publicaties ook van links naar rechts: door ze te markeren met een sterretje komen ze  eerder in beeld, maar de volgorde kun je niet echt beïnvloeden.
Scrollen dus tot je wat gevonden hebt waar je interesse in hebt.

Kranten:  de meeste grote dagbladen zitten erin: NRC (+next), Volkskrant, Parool, Telegraaf, AD, Trouw.
Tijdschriften: de bijlages van de kranten en verder Quote, VM, Quest, Elsevier, NewScientist.
En er zijn plannen tot uitbreiding, in test zijn nu o.a. VN, De Groene, Dagblad van het Noorden, Brabants dagblad.

Bij de Beta versies grapten ze dat ze “alle kwaliteitskranten van Nederland – en Story”, hadden, maar Story zie ik nog niet. Niet dat ik dat mis trouwens maar dat Quest erin zit vind ik wel  erg leuk.

 De Alerts vormen het derde tabblad

blendle-alert

Ik heb maar eens een paar zoekacties neergezet.
Dit vind ik een erg leuke optie: het systeem zoekt door alle bladen heen, ook waar je normaal niet in zou kijken en presenteert ze met de titel , datum, een snippet en de prijs bovenaan.
Zodat je kunt beslissen of je het wilt lezen of niet.
De alerts kun je zo je wilt in je mailbox ontvangen. Dat kun je gelukkig ook uitzetten.

blendle-alerts

Het opstellen van een alert is kinderlijk eenvoudig, maar de zoekacties zijn ook wel tamelijk basaal.
Op mijn tablet kon ik geen spaties invullen (bijv Human factors) maar op de laptop wel.
Het systeem blijkt wel te kunnen trunceren, maar operators werken nog niet, al zeggen ze wel dat een -  (NOT) zou moeten lukken  en dit is een geaccepteerde alert:
voetbal-ajax

Deze alert optie kan heel zinvol zijn.

Volgen
Belangrijke functie van het systeem is delen: je kunt binnen het systeem delen, maar ook naar Facebook.
Straks ook naar Twitter, die koppeling is er nu nog niet.
Het duurde even voor ik snapte hoe je nou iemand kunt vinden om te volgen, maar dat werkt via de zoekoptie links boven.
Gewoon via dat vergrootglas naast het logo.

Op je eigen pagina kun je zien wie jou volgt en wie jijzelf volgt, en staan de artikelen waar je wat over geroepen hebt.

blendle-archief

 

Er is een aparte ‘Archief’ pagina waar alles wat je gekocht hebt staat.
Geen idee hoe lang die daar blijven staan trouwens. Als je het systeem veel gebruikt loopt het wel op en er is geen aparte zoekoptie voor/in.

Devices
De webversie heb ik uitgeprobeerd en die werkt op mijn Android tablet (al moet ik zeggen dat de Galaxy Tab 10 inch soms vastloopt) iPad 2 en op de laptop (met Firefox).
Op mijn Galaxy Note wil de webversie het niet doen en krijg je de mobiele versie in beeld. Dat werkt aanzienlijk minder goed, ook omdat het scherm natuurlijk kleiner is.
Ze zijn ook van plan om apps te maken.
Het beste werkt de desktop versie, maar ik denk dat de meeste mensen het met de tablet zullen willen gebruiken.

Kosten
Door wat aanklikken en lezen ben je zo 5 euro kwijt …. die prijzen tussen 1-25 cent zijn ok, maar daarboven gaat het echt te hard.
Dan zou je snel een methode van betalen willen als van Spotify: alles wat je kunt lezen voor een tientje per maand of zo. Anders kom je totaal snel boven de prijs van de gedrukte versie uit.
Ik begrijp wel dat dat in dit geval wat lastig is: je kunt ze immers ook printen en opslaan, dus misbruik ligt dan op de loer, maar mogelijk valt er iets aan te doen door er een volume maximum aan te hangen.
Het is ook jammer dat je moet betalen voor de krant die je als abonnement zelf hebt: dan moet je of twee platforms onderhouden, of ze moeten een soort kruisbestuiving gaan instellen.
Het is wel heel handig -en daar is het natuurlijk ook voor bedoeld- dat je meteen een artikel kunt lezen uit een  krant of tijdschrift waar je géén abonnement op hebt.
Blendle is echter zo’n aardige systeem dat je eigenlijk wel op dat platform zou willen blijven, dus te hopen valt dat ze daar wat aan doen.

Paar puntjes voor wat betreft de Lay-out
Er is een soort chat/berichtboxje rechtsonder daarmee kun je commentaar geven. Mogelijk alleen voor de beta versie.
Als je een tablet gebruikt zit alleen wel net je toetsenbord ervoor dus zie je het hele boxje niet meer.

Mijn tablet laat de kosten van een artikel soms zien onder het scroll-pijltje: dus als je daarop klikt om te scrollen, heb je zomaar ineens iets gekocht.
Gelukkig kun je dat meteen ongedaan maken.

En: Blendle gaat helemaal uit van de traditionele print versie: het gehele systeem is erop gebaseerd. Leuke daaraan is wel dat je, omdat je door het blad kunt bladeren ook de context, de  illustraties en de opmaak ziet,  wat met het kopen vaak niet mee komt. Je koopt eigenlijk alleen de tekst.
En: je kunt weliswaar artikelen los kopen, maar  los gepubliceerde artikelen is nog een brug te ver.

Conclusie
Het is een leuk, handig, verslavend, gemakkelijk maar prijzig systeem, en moet nog wat doorontwikkeld worden.
Het kan zeker een rol vervullen.

Dus: ik blijf t denk ik wel gebruiken

 

Verder lezen

GO cursus Semantisch zoeken deel 2

Laat een reactie achter

Vervolg van de ochtend

Facebook graph search wertk alleen als je de taal verzet naar English US.

Dan krijg je ook een merkwaardige hoeveelheid suggesties bijv met vragen als ‘Favorite books of people who …”
Wat voorbeeld searches http://wrightimc.com/blog/2013/08/12/the-giant-list-of-facebook-graph-search-queries/

Bepalen van betekenis

Gestandaardiseerde markering van kenmerken van webpagina’s

  • recipe search bij Google
  • toepasing e-commerce ontology

Standaarden daarbij: microformats (rich snippets) metadata en RDFa.
Google recepten zit sinds kort ergens anders en is t veel onoverzichtelijker geworden. Bij Yahoo is t handiger: http://recipes.search.yahoo.com/
In Chrome kun je browser extensies installeren om de embedded metadata overzichtelijker te tonen.

RDFa standaarden zijn gegevens waarbij in de ‘property’  op de XHTML pagina  codes zijn opgenomen uit de GoodRelations ontology met termen (waneer er bijv een bedrag genoemd wordt) als : hasCurrency en hasPriceType.
Google, Yahoo, Bing en Yandex gebruiken Schema.org als standaard: hierin zijn ook de GoodRelations termen geincorporeerd.

Examining Real World Uses Of Rich Snippets & Markup (SearchengineLand) vaak is dit vanuit de searchoptimalisatie techniek.
De zoeker kan gerichter zoeken en filteren, maar ook in de snippets kan duidelijkere informatie getoond worden.

Microdata.reveal en Semantic insepctor zijn browser tools voor Chrome. Een andere is de Creative commons laser highlighter.
Als je die geïnstalleerd hebt zie je icoontje bovenaan wanneer dat van toepassing is, en als je daarop klikt zie je ze ingrediënten ed overzichtelijker dan vaak op de pagina staat.
Goodreads en Last.fm makenook gebruik van metadata.
Google heeft ook zoiets als de ‘Structured Data Testing Tool’: http://www.google.com/webmasters/tools/richsnippets daar plak je dan een url in en toont hij het wat overzichtelijker. voordeel is dat je geen extensies hoeft te installeren.

Resource Description Framework (RDF)

RDF is standaard waarmee relaties tussen object en metadata wordt beschreven.
Via Namespaces wordt naar gebruikte metadatastandaarden te verwijzen.RDF is bedoeld om bestaande semantische systemen te hergebruiken RDF in XNML en RDFa ook in HTML pagina’s.

Eigenschappen worden vastgelegd in Triples: subject <predicaat> object waarbij het te beschrijven ding een URI (webadres) heeft, en de eigenschap en waarde liefst ook.
Voorbeeld: Shakespeare is de auteur van Hamlet.
Triples worden opgesalgen in een triple store.

VIAF: The Virtual International Authority File

The VIAF™ (Virtual International Authority File) combines multiple name authority files into a single OCLC-hosted name authority service. The goal of the service is to lower the cost and increase the utility of library authority files by matching and linking widely-used authority files and making that information available on the Web.

Mensen en adressen in FOAF http://www.foaf-project.org/
Titels in Dublin Core
RDF browser: http://graphite.ecs.soton.ac.uk/browser/

Ontologieen
Vanuit filosofie afkomstig: vastleggen van betekenissen.”kennis-representatie” warin een stukje van de werkelijkheid geformaliseerd is weergegeven. Gaat verder dan een thesaurus: meer soorten relaties dan BT en NT. Wordt meestal niet rechtstreeks voor een ontsluiting gebruikt. Biedt ook mogelijkheid tot redenaties. Vastgelegde rollen en eigenschappen.

Core ontology is wat breder: bijv hele culturele erfgoed. CIDOC conceptual reference model zie voorbeeld veeld van Rodin http://www.cidoc-crm.org/crm_core/core_examples/balzac.html

In het kader van het semantische web wordt het vaak meer in algemene zin gebruikt en is het een aanduiding van een onderwerpsontsluiting. Computerleesbaar en geformaliseerd. Waarmee getracht wordt allerlei systemen interoperabel te maken. In Europeana wordt het toegepast.

Oude codes voor standaarden van beschrijvingselementen waren: v / mo / foaf / owl / geo al deze zaken worden nu vervangen door schema.org.
mo = muziek ontology

_______

Opdracht

________

Zoekmachines

Linked data

Via triples doorlinken naar andere data. Moet al wel voorgeprogrammeerd zijn.
Bedoeling: hergebruik, dus ook gestandardiseerd. Kan open of  niet  open zijn. Iedereen kan bijdragen, dus kan soms wat rommelig worden.
Worden bewaard in triple stores met zoektalen als SPARQL: is nog behoorlijk lastig / gespecialiseerd.
Endpoints zijn toegangspunten op het web waar je SPARQL zoekacties op RDF triple stores kunt uitvoeren.

3. Verbeteren van zoekacties

Vooraf en al dan niet geautomatiseerd.
Gebaseerd op statistiek, spelling, woordstam,.
Toevoegen van synoniemen, acroniemen en verwante en specifiekere begrippen aan query.

Achteraf bewerken van resultaat: clusteren op basis van inhoud vaak op basis van statistiek Clusty, Polymeta (Ask,Google,Bing,Yahoo) of op basis van automatische classificatie.

Gevonden alinea’s tonen waarin antwoord zou staan (KWIC index bijv Sensebot).
Samenvattingen genereren bv Factbites
Inmiddels 31 miljard data online met 504 miljoen links tussen de sets. DBpedia is heel erg centraal.

Semantische zoekmachines

Althans ze presenteren zich als zodanig:

  • Hakia : geeft niet thuis als je met meerderen wil inloggen
  • Kngine (let op resultaten in tabjes bovenaan) matig resultaat, maar beter dan de andere twee
  • Cluuz : gewone werkt niet, ask.cluuz.com geeft niet thuis als je met meerderen wil inloggen
  • Unsilo nog in ontwikkeling: ‘invite’ aanvragen

GO cursus Semantisch zoeken deel 1

1 Reactie

Verslag van de cursus Semantisch zoeken op 29 januari 2014 ochtend programma.

De eendaagse cursus Semantisch zoeken leert u wat semantische zoektechnieken zijn. Ook krijgt u meer informatie over de achtergronden en de toepassing van semantische technieken.

Gegeven door Eric Sieverts / sites.google.com/site/sieverts . Zijn PPT van maart 2013: Semantisch zoeken. Geassisteerd door Jeroen Bosman (twitter).

Ik heb er zin in: ben zelfs een uur te vroeg aanwezig, gelukkig mag ik al naar binnen,  is er koffie en is het er warm.

De definitie van Wikipedia van Semantisch web:

Het semantisch web verschaft een standaard framework waarmee data gedeeld en hergebruikt kunnen worden.[1] Het is een samenwerking onder leiding van het internationale orgaan voor internetstandaarden, het World Wide Web Consortium (W3C).

Het semantisch web is geen synoniem voor Web 2.0, zoals soms wel wordt verondersteld. Tim Berners-Lee beschreef het semantische web als een component van ‘Web 3.0′.[3] Soms wordt het gebruikt als synoniem voor Web 3.0, hoewel de definities verschillen

Ofwel op zijn engels:

The Semantic Web is a collaborative movement led by international standards body the World Wide Web Consortium (W3C).[1] The standard promotes common data formats on the World Wide Web. By encouraging the inclusion of semantic content in web pages, the Semantic Web aims at converting the current web, dominated by unstructured and semi-structured documents into a “web of data”. The Semantic Web stack builds on the W3C’s Resource Description Framework (RDF

De Nederlandse versie van wikipedia heeft geen apart lemma voor Semantisch zoeken, de Engelse wel:

Semantic search seeks to improve search accuracy by understanding searcher intent and the contextual meaning of terms as they appear in the searchable dataspace, whether on the Web or within a closed system, to generate more relevant results.

12 deelnemers.

Semantisch zoeken
Semantisch web is het web, Semantisch zoeken kan in principe in elk systeem.
What is semantic search? 10 Things that Make Search a Semantic Search Uitleg op de Hakia website, Hakia zegt zelf een semantische zoekmachine te zijn. Deze elementen  zitten er vaak wel in, focus op zoektermen formuleren in de natuurlijke taal, begrip van wat enerzijds gebruiker, anderzijds in de tekst ‘eigenlijk’ bedoeld wordt.

Seth Grimes: Breakthrough Analysis: Two + Nine Types of Semantic Search:  There’s more to it than offering related results. Here are 11 approaches that join semantics to search.Semantisch web is klaargemaakt web zodat er semantisch in gezocht kan worden.
Meningen over toepassing / aanwezigheid ervan lopen uiteen, deels is het er nog niet, maar het gaat wel die kant op.
Semantisch zoeken gaat steeds beter, gemakkelijker en ook voor gebruiker onzichtbaarder. Wordt ook steeds meer in enterprise toepassingen ingebouwd.Ook veel uit hoek van zoekoptimalisatie:

Soorten toepassingen

  1. Inschatten intentie gebruiker
  2. Bepalen van betekenis in tekst (vooraf bij indexeren of achteraf in zoekresultaat)
  3. Automatisch aanpassen van zoekacties tbv beter resultaat

1. Intentie zoeker

Kan bepaald worden uit

  • locatie zoeker (IP / GPS – GSM)
  • analyse vraag
  • - namen (facebook/linkediGoogle Knowledge Graphn)
  • - vaste combinaties woorden
  • - naturlijke taal interpetatie Wolframalpha)(
  • - statistiek frequente vragen (Google)
  • op basis van eerder zoekgedrag

Voorbeeld:

  • Google vraag ‘Restaurant amsterdam’ : dan krijg je niet een lijstje met items waar die twee termen in voorkomen, maar daadwerkelijk een lijstje met restaurants in Amsterdam.
  • Google vraag ‘Bach’ krijg je meteen een bepaalde Bach uit de zoveel miljoen geselecteerd mn Johann Sebastian. (Knowledge Graph) dus gegevens over hem, niet websites over hem.

Knowledge Graph
Hoe komt KG aan gegevens?

‘Graphs’ kom je tegenwoordig overal tegen: andere manier om gegevens te visualiseren. Geeft relaties tussen objecten aan.

Vaste combinaties

Feitelijke antwoorden als je bv melting point silicon intikt, population amsterdam, Rhein vs Schelde (krijg je netjes twee rijtjes, appelen en peren vergelijken).
Let wel: je moet zowel google.com hebben als de schermtaal op Engels, anders doet hij dat niet!

Bing heeft met Satori  iets soortgelijks, maag nog niet altidj zo slim als Google, maar ze worden wel steeds beter.

WolframAlpha

Gaat nog iets verder met interpreteren van zoekvraag.

___________________

Opdrachten : http://webzoek.pbworks.com/w/page/73494392/semant

Conclusie: nog lang niet voor alles zijn er concrete antwoorden te verkrijgen. Ligt aan onderwerp, maar ook aan formulering.
Duckduckgo laat soms ook meteen resultaten en haalt dat uit diverse databases als Wolfram alpha of Wikipedia.

___________________

2. Bepalen van betekenis in tekst

Herkennen van entiteiten in tekst van gevonden resultaten: Philips als een bedrijf bv.,  van sentimenten (positief of negatief), embedded data, linked data.

Entity extraction / Auto-generated tags:

Herkennen van teksten via Open Calais. (Daar kun je een stuk tekst inplakken http://viewer.opencalais.com/, die analyseert dat, de ene keer beter dan de andere keer. Dat systeem kan zo ‘automatisch’ metadata aan teksten of woordcombinaties hangen: dmv woorden die er al inzitten)

The OpenCalais Web Service automatically creates rich semantic metadata for the content you submit – in well under a second. Using natural language processing (NLP), machine learning and other methods, Calais analyzes your document and finds the entities within it. But, Calais goes well beyond classic entity identification and returns the facts and events hidden within your text as well.

The tags are delivered to you; you can then incorporate them into other applications – for search, news aggregation, blogs, catalogs, you name it

Zemanta doet iets soortgelijks voor bloggers: maakt linkje naar wikipedia artikel. Gaat op zoek naar plaatjes die je in je blog zou kunnen zetten, en naar related articles. Is wel wat beperkter dan wat uit open Calais komt.

Gestructureerd opslaan

Facebook slaat alle gegevens gestructureerd op in Graph. De engelse versie heeft ook een graph search . (Zoekvraag als: Mensen die in de buurt van Amsterdam worden en werken bij  KNAW)

Automatisch categoriseren

Via Machine learning systemen, getrained op basis van taxonomie of thesaurus. Kan ook op sentiment. Tweetfeel deed dat, maar dat werkt nu niet meer.
Automatische classificatie bijv op Dewey code http://act-dl.base-search.net/ Google herkent objecten in images, ook als dat niet als metadata is meegegeven. Honden bijv.
Pinterest is daar mee begonnen met filters voor recepten, maar erg goed is het niet.
Dit soort dingen gaan ook wel vaak fout.

Sentiment detection:

  • Social Searcher:  http://www.social-searcher.com  Zoekt in 3 sociale media en toont onder tabblad “Analytics” het “sentiment” van gevonden berichten

________________

Opdracht 2 t/m 5

__________________

Vanmiddag verder…

Gelezen in 2013

Laat een reactie achter

De target van 50 boeken heb ik dit jaar niet gehaald.

E-reader
2013 was voor mij het jaar van de e-reader: ik begon er enthousiast mee, maar dat enthousiasme taande gaandeweg het jaar en ik kreeg er zelfs een hekel aan.
Ik heb een aantal jaar geleden al veel gedrukte boeken weggedaan en dit jaar vervangen door de digitale versie, en koop bijna alleen nog maar digitaal.
Maar het blijkt dat ik toch echt een voorkeur voor gedrukte boeken heb, al zou ik anders willen, en al lees -en bezit- ik ze nu vnl digitaal, dat wel.

Klassiekers
De laatste jaren ben ik veel klassiekers aan het herlezen en probeer ze echt met de blik van nu te bekijken.
Dat is heel grappig om te doen, sommigen zijn echt nog heel goed te lezen.

De resultaten van 2013
Bij goodreads genoteerd: 36 titels (35 uitgelezen, 1 niet), 5 daarvan in druk gelezen, de rest digitaal.
En nog 6 aan het lezen

5 of 5 stars

1 of 5 stars

Hieronder de afzonderlijke besprekingen in de 5 sterren indeling van (met links naar) Goodreads.
En met commentaren van mij die ook al bij Goodreads staan trouwens, maar dan heb ik ze meteen voor mijn eigen archief.

Theory and Practice of Digital Libraries : samenvatting #TPDL2013

Laat een reactie achter

Voor zover ik het dan begrepen en gevolgd heb.

Zoekacties op internet leveren vaak niet voldoende, of niet complete resultaten op, terwijl de gegevens er vaak wel zijn, maar ze zijn óf niet goed gestructureerd, óf wel gestructureerd, maar zitten opgeslagen in databases, waar ze voor gewone zoekmachines moeilijk te vinden zijn.
Zaak is het dus om meer structuur aan te brengen in het geheel, en om zaken met elkaar te verbinden.

Digital Libraries zijn meer dan enkel opslagsystemen van digitale informatie: ze moeten een Knowledge Hub zijn.
Ze moeten nieuwe typen gestructureerde artefacten ondersteunen en interacties mogelijk maken, nieuwe technologieën maken nieuwe toepassingen mogelijk: digitale bibliotheken moeten nieuwe wegen mogelijk maken om naar de informatie te kijken.

Het semantische web

Een oplossing wordt gezien in het semantische web: met als ontwerptalen RDF (Resource description Framework) of RDFS (=RDF + nog wat erbij) en OWL (Web Ontology Language), zoeken via SPARQL en verder kennisorganiserende systemen SKOS.
Aan de basis ligt RDF: kort gezegd komt dat er op neer dat informatie opgeslagen wordt in zo klein mogelijke statements die nog zinvol zijn.  Deze uitspraken bestaan vaak uit 3 elementen: (‘onderwerp’ – gezegde (relatie) – ‘lijdend voorwerp’) en worden daarom triples genoemd. Dat zijn uitspraken als: ‘Shakespeare schreef Othello’ ‘Shaeksepare is een auteur’ Othello is een toneelstuk’
Deze triples worden opgeslagen in een ‘triple store’. De namen van mensen, organisaties, plaatsen en dergelijke (Named Entities) worden ook opgeslagen en voorzien van allerlei varianten en vertalingen, zodat als iemand een vergissing met zoeken maakt, of een gescande tekst een variant bevat, er toch de juiste persoon wordt gevonden: er zijn authority files.
En er wordt een ontologie (trefwoordenlijst) bij gebruikt die ondubbelzinnige termen bevat, en de termen in hun context weet te plaatsen: zodat er een onderscheid is tussen Jaguar als beest (in combinatie met jungle bijvoorbeeld) en als automerk (in combinatie met autowegen en benzine).
Met RDF kun je zo informatie uit allerlei heel verschillende databases met elkaar verbinden.

Dat is heel kort door de bocht de theorie en met dat als basis kun je van alles met van alles verbinden.

Er gebeurt veel daarmee, maar het meeste daarvan is volgens mij nog als proef, of als onderdeel van een of ander geheel.
Het is best complex om dat goed te doen, en het vergt veel samenwerking.
Maar als dat goed werkt, kun je dus ‘alles’ van een onderwerp bij elkaar vinden: of het nu om beschrijvingen van gebouwen, muziek, boeken, artikelen, beschrijvingen van beelden of wat dan ook gaat.
En je kunt  ook andere zaken verzinnen als:  Slidewiki  (losse slides uit presentaties voorzien van extra informatie via) of iets als OntoWiki .
In het project Cortex (semantic digital library search backend)  van LOD2 is alle Europeana informatie in triples ingevoerd in die database, dit is nu in gebruik door de Deutsche digitale bibliothek. De performance is erg goed.

Metadata rules

Wat eigenlijk elke dag wel terug kwam is het belang van metadata: en die metadata moet goed zijn, anders wordt het geheel wat je daarop wil bouwen wat wankel.
Bij voorbeeld: de European library wordt samengesteld uit de geharveste repositories van de 48 nationale bibliografieën.
Een repository wordt gevoed uit een catalogus ergens: die gegevens worden via het OAI-MPH systeem geharvest.  Maar die gegevens zijn maar net zo compleet als ze worden ingevoerd, en lang niet alle catalogiseerders maken volledig gebruik van de velden die ze tot hun beschikking hebben. Bovendien: aan een repository ligt vaak Dublin core ten grondslag, en dat is ook nogal beperkt.
De gegevens van meerdere repositories worden samengevoegd, maar dat kan dus als resultaat hebben, en heeft het ook, dat een item meerdere keren voorkomt.
Voor de gebruiker van het systeem is het niet plezierig als deze meer dan 1x dezelfde gegevens voorgeschoteld krijgt, dus het is zaak de ontdubbelen: maar als je niet alle gegevens hebt is het lastig om die dubbelen te identificeren. Anderzijds wil je ook recht doen alle mogelijke edities, en alle medewerkers van een bepaalde editie. Voor een bestand als The European Library (en Europeana en dergelijke)  zijn de aantallen waar je over spreekt gigantisch, dus dit is beslist niet handmatig te doen.
Automatiseren ja, maar vaak is er ook weer -deels- menselijke tussenkomst bij nodig.

Archiveren

Veel (60%) van wat er nu aan informatie is verdwijnt zonder dat deze wordt gearchiveerd. Maar is dat erg? Moet je alles willen bewaren?
Is het eigenlijk niet veel meer werk om uit te zoeken wat je wel wilt bewaren, en kun je maar beter alles opslaan? Maar hoe doe je dat en hoe zorg je dat je met die data explosie voldoende ruimte hebt?
Hebben we eigenlijk niet betere filters nodig?
Ook in de Wayback machine blijkt lang niet alles te vinden.
‘What to keep’ is echt een digitale bibliotheek issue.
Een interessant vraag is ook: als je research data bewaart en opslaat en het dan later weer uitvoert, doet het proces dan nog hetzelfde?

Sharing data is a cultural issue

Wetenschap wordt in het openbaar bedreven, maar als je echt over Open science spreekt, heb je meer nodig dan nu ‘open’ is, hoewel nu al 50% van de artikelen via Open Acces te vinden is. Een publicatie is het eindpunt van een onderzoek: daar gaat een en ander aan vooraf. Bij de publicatie van een artikel hoort ook de publicatie van de data waar het artikel op gebaseerd is: zodat het eindresultaat verifieerbaar is, zodat men de data kan hergebruiken, om fraude en ‘gratis bijrijders’ tegen te gaan. Maar dit ligt nogal moeilijk, vanwege het feit dat sommige onderzoekers zich niet graag in de kaart laten kijken, uit angst voor misbruik of misinterpretatie, vanwege persoonlijke gegevens van proefpersonen, of het  aanwezig zijn van min of meer geheime bedrijfsgegevens. ‘Europa’ wil wel dat alles wat met publiek geld gefinancierd wordt ook in open access gepubliceerd wordt, maar niet alle onderzoek vindt plaats in de publieke ruimte, er is nogal eens een verstrengeling van privaat en publiek geld.
Daar komt nog eens bovenop dat de data alleen niet voldoende is: je hebt ook de software nodig waar de data in gemaakt is om die te kunnen hergebruiken, de beschrijvingen, de modellen, de provenance, het gehele proces eigenlijk.
Zou je het goed willen doen, dan zou de onderzoeker al bij de opzet van het onderzoek het hergebruik in ogenschouw moeten nemen, en contact opnemen met de data scientist / librarian / archivist om af te spreken wat de beste procedure is om het geheel te archiveren. en dat vergt wel een cultuuromslag …
En dan dat hergebruiken: gaat iemand dat eigenlijk wel doen?

Love your data and let others love them too

Je hebt een betrouwbare infrastructuur nodig om dat te stimuleren, een infrastructuur waar digitale bibliotheken deel van uitmaken.
Data kan trouwens van alles zijn: het hangt van de omstandigheden af wat er als data gezien wordt. Iemands aantekeningen is voor de een ruis, voor de andere bron van onderzoek, en dus data.

Artikelen

Een artikel alleen is niet voldoende, je hebt er dus ook de data en de procesbeschrijving van het onderzoek bij nodig.
Maar daarnaast zou je ook het artikel kunnen annoteren en voorzien van triples: dat maakt het gemakkelijker terug te vinden en daarmee gemakkelijker citeerbaar.
Dat vergt alleen wel een andere manier van publiceren omdat de meeste uitgevers de triples eraf zullen strippen, maar in instituutsrepositories zou dat zeker wel gaan.
Wat bibliometrie betreft: alleen de citaties worden geteld, maar eigenlijk is vermelden in een tweet ook een citatie, en die worden niet geteld. Commentaren bij blogs ook niet.

Visualisatie

Nadeel van zoeken is dat je keywords nodig hebt: wat als je een plaatje wilt zoeken, of niet echt een term weet?
Je zou een soort Google Maps kunnen maken van onderwerpen waarop je kunt inzoomen. (zie blogtekst over het Paths project )

Gebruikers

We doen het allemaal voor de gebruiker: en die willen soms andere dingen dan de profs denken.
Ze willen bijvoorbeeld dat het systeem hen daadwerkelijk helpt, niet alleen een help button.
Men wil graag veel opties voor het manipuleren van de zoekactie en om de resultaten te tonen, maar het systeem moet wel duidelijk zijn.
Gebruikers willen best Advanced search gebruiken maar hebben minder interesse in technische metadata.
Search filters zijn gebruikelijk, maar worden ze ook gebruikt? Uit een eye tracking studie blijkt dat ze veel gebruikt worden. Dus ze zijn zeker zinvol ja.
En last but not least: we zijn op weg naar een echte cyberinfrastructure maar face to face contact blijft belangrijk.

Infrastructuren

In Europa is een woud van acroniemen bezig met het opzetten en onderzoeken van e-infrastructuren. (blogpost)
Het is nogal ondoorzichtig allemaal wie nou precies wat doet, en laten we hopen dat ze het zelf weten. En allemaal in projecten: wat gebeurt er als die afgelopen zijn?
OpenAIRE is bijv wel een heel belangrijke: dat is een basis en daarop kun  je  speciale applicaties voor speciale toepassingen bouwen. De OpenAIREplus versie verbindt publicaties met data (zie het Dlib artikel.)
Wat wel uit deze presentatie kwam is dat het belangrijk is dat men vanuit Europa zelf voeling houdt met de ‘basis’: de catalogiseerders en de afzonderlijke collecties.  Als die niet het idee hebben dat ze met samenwerken wat kunnen bereiken, en dat Europa ze alleen maar werk kost waar ze zelf niets aan hebben, verlies je ze.
Het ontbreekt dus niet alleen aan duidelijkheid, maar ook aan communicatie naar de basis.
Het is ook allemaal erg highbrow: hebben we eigenlijk niet simpele tools voor curatie nodig in plaats van specialistische ITers?
De standaardisatie komt vanuit Europa, maar van belang is ook dat we weten in hoeverre de datasets te vertrouwen zijn: certificatie en audit? Of liever appraisal? De Europese heren en dame weten het ook niet dus er komt weer een project voor …

Aanrader

Een hele leuke Google Scholar plugin voor Firefox en Chrome: de Google Scholar H-index Calculator.

Conclusie

De Digitale Bibliotheek heeft een toekomst en is de toekomst.
Maar het levert nog wel veel vragen op….
Wat wel een duidelijke zaak is dat je ‘als bibliotheek’ je zeker moet gaan bemoeien met de opslag van data, hoe moeilijk dat ook is.
En het koppelen van de data aan de publicatie.
Want daarin ligt de toekomst voor de bibliotheek.

Presentaties

Defining Digital Library #TPDL2013

Laat een reactie achter

Defining Digital Library. (€) Armand Brahaj, Matthias Razum, and Julia Hoxha

This paper reflects on the range of the definitions of digital libraries demonstrating their extent. We analyze a number of definitions through a simplified intensional definition method, through which we exploit the nature of the definitions by analyzing their respective genera and attributes. The goal of this paper is to provide a synthesis of the works related to definitions of digital library, giving a fine-grained comparative approach on these definitions. We  conclude that, although there are a large number of definitions, they are defined in overlapping families and attributes, and an inclusive definition is possible.

Armand vindt dat Digital Libraries een verkeerde term is, omdat wat je ermee bedoeld erg afhangt van de context waarin je het gebruikt.

Collectie, service, organisaties of systeem bijv.
Dit zijn de resultaten van hun onderzoek :

Hij ziet bibliotheek dus meteen als een online systeem ;-).

(Hij heeft een aardige mindmap gemaakt, maar die was te snel van het scherm, hij heeft hem op mijn verzoek even getweet :)