I løpet av de siste årene har vi sett en markant økning i utviklingen av kunstig intelligens (AI) og maskinlæringsmodeller med åpen kildekode. Prosjekter som IBMs Granite-modeller og Metas Llama-serie har vært eksempler på dette.
Imidlertid har det nylig vært en trend der selskaper beveger seg bort fra åpen kildekode i utviklingen av sine mest avanserte AI-modeller. Meta har for eksempel indikert en overgang til lukkede modeller, noe som reiser spørsmål om fremtiden for åpen kildekode i AI-feltet.
Dette skiftet kan ha flere implikasjoner. På den ene siden kan lukkede modeller føre til raskere innovasjon og bedre kontroll over teknologien. På den andre siden kan det begrense samarbeid, åpenhet og tilgjengelighet, som tradisjonelt har vært drivkrefter for fremskritt innen teknologi.
Hva mener dere? Er dette et nødvendig skritt for å sikre sikkerhet og konkurranseevne, eller risikerer vi å miste de fordelene som åpen kildekode har gitt oss i AI-utviklingen?